home *** CD-ROM | disk | FTP | other *** search
/ Freaks Macintosh Archive / Freaks Macintosh Archive.bin / Freaks Macintosh Archives / Textfiles / coloredbooks / RedBookv2.sit.hqx / Red Book v2
Text File  |  1997-11-17  |  122KB  |  3,437 lines

  1.  
  2.  
  3.  
  4.  
  5.  
  6.  
  7.  
  8. TRUSTED NETWORK INTERPRETATION ENVIRONMENTS GUIDELINE
  9.  
  10.  
  11.  
  12.  
  13.  
  14.  
  15. NCSC-TG-11
  16.  
  17.  
  18. Library No. 5-235,465
  19.  
  20.  
  21. Version 1
  22. TRUSTED NETWORK INTERPRETATION ENVIRONMENTS GUIDELINE
  23.  
  24. FOREWORD
  25.  
  26.  
  27.  
  28. The National Computer Security Center is issuing the  Trusted
  29. Network Interpretation Environments Guideline as part of our Technical
  30. Guidelines Program, through which the "Rainbow Series"
  31. is produced. The Technical Guidelines Program ensures that the
  32. features of the Trusted Computer Systems Evaluation Criteria (DOD
  33. 5200.28-STD) are discussed in detail and that guidance is provided
  34. for meeting each requirement. The National Computer Security Center,
  35. through its Trusted Product Evaluation Program, analyses the security
  36. features of commercially produced and supported computer systems.
  37. Together, these programs ensure that organisations are capable
  38. of protecting their important data with trusted computer systems.
  39.  
  40.  
  41. The Trusted Network Interpretation Environments Guideline is a
  42. companion to the Trusted Network Interpretation of the. Trusted
  43. Computer System Evaluation Criteria (NCSC-TG-O5),  published 31
  44. July 1987.  The  Trusted Network Interpretation Environments Guideline
  45. provides insight into the issues relevant when integrating, operating,
  46. and maintaining trusted computer networks. This document identifies
  47. the minimum security protection required in different network
  48. environments such that network certifiers,  integrators, and accreditors
  49. can determine what protection mechanisms and assurances are mmimally
  50. required in specific network environments.
  51.  
  52.  
  53. This document parallels Computer Security Requirements - Guidance
  54. for Applying the Department of Defense Trusted Computer System
  55. Evaluation Criteria in Specific Environments (CDC-STD-O3-85) and
  56. its technical rationale (CSC-STD-04-85). It also provides a descriptive
  57. presentation of the security issues that exist in networked computer
  58. systems as the networked computer system environment is inherently
  59. more complex and requires additional protection considerations
  60. over stand-alone computer systems.
  61.  
  62.  
  63. As the Director, National Computer Security Center, I invite your
  64. suggestions for revising this document. We plan to review this
  65. document as the need arises.
  66.  
  67.  • PATRICK R. GALLAGHER JR.                                 
  68.  1 August 1990
  69.  • Director
  70.  • National Computer Security Center
  71.  
  72.  
  73.  
  74.  
  75.  
  76. ACKNOWLEDGMENTS
  77.  
  78.  
  79.  
  80. The  National  Computer  Security Center extends special recognition
  81. and acknowledgment for their contributions to this document to
  82. Dr. Marshall D. Abrams, Renee Child, Annabelle Lee, Dr. Jonathan
  83. K. Millen, Samuel I. Schaen, and Dr.  Martin W. Schwartz, of The
  84. MITRE Corporation, as authors; Richard Wilmer, also of The MITRE
  85. Corporation, as technical editor; and to Alfred Arsenault, David
  86. Chizmadia, id Rick Siebenaler of the National Computer Security
  87. Center, who managed the effort ad participated in the development.
  88.  
  89.  
  90. Special thanks are extended to the many members of the computer
  91. security community who enthusiastically gave their time and expertise
  92. in reviewing the material and providing valuable comments and
  93. suggested changes.  Special thanks are extended to James P. Anderson
  94. of James P. Anderson Co., Donald L. Brinkley of Gemini Computers,
  95. Inc., Dr. Eric Roskos of The Institute for Defense Analysis, Dr.
  96. Tien Tao of Gemini Computers, Inc., and Dr. John M. Vasak of The
  97. MITRE Corporation for their extensive suggestions and recommendations.
  98. 1 Introduction
  99.  
  100.  
  101.  
  102. This Trusted Network Interpretation (TNI) Environments Guideline
  103. (TNIEG) addresses many issues in determining the security protection
  104. required in different network environments.  It complements the
  105. TNI, just as the Trusted Computer System Evaluation Criteria (TCSEC)
  106. Environments Guideline [1] complements the TCSEC.  The TNI interprets
  107. the TCSEC for networks; it contains all of the criteria in the
  108. TCSEC, adding interpretation and rationale to applying trust technology
  109. to network systems. In the same way that the TCSEC Environments
  110. Guideline provides gnidance on applying the TCSEC, this TNIEG
  111. provides gnidance on the use of the TNI. The TCSEC and its Environments
  112. Guideline constitute the foundation on which the TNI and TNIEG
  113. add network applicability.
  114. 1.1 Background
  115.  
  116.  
  117.  
  118. The National Computer Security Center (NCSC) is responsible for
  119. establishing and maintaining technical standards and criteria
  120. for the evaluation of trusted computer systems. As part of this
  121. responsibility, the NCSC is developing guidance on how new security
  122. technology should be used. Two objectives of this guidance are:
  123.  
  124.  •  Establishing a metric for categorizing systems according
  125. to the security protection they provide, and
  126.  •  Identifying the minimum security protection required
  127. in different environments.
  128.  
  129.  
  130.  
  131.  
  132. The TCSEC [2] helps to satisfy the first objective by categorizing
  133. computer systems into hierarchical classes based on evaluation
  134. of their security features and assurances.  The TCSEC Environments
  135. Guideline [1] helps to satisfy the second objective by identifying
  136. the minimum classes appropriate for systems in different risk
  137. environments. These two documents, however, apply to stand-alone
  138. corn puter systems.
  139.  
  140.  
  141. The TNI [3] satisfies the first objective by interpreting the
  142. TCSEC for networks.
  143.  
  144.  
  145. The TNI also provides guidance for selecting and specifying other
  146. security services (e.g., communications integrity, denial of service,
  147. transmission security). The TNIEG is the first step toward addressing
  148. the second objective.
  149.  
  150.  
  151. TNI Environments Guideline                                   
  152.     Introduction
  153. 1.2 Trusted Network Technology Publications
  154.  
  155.  
  156.  
  157. The NCSC has decided to provide guidance concerning security in
  158. networks and distributed Automated Information Systems (AISs)1
  159. in a series of publications. The subject area is collectively
  160. identified as Trusted Network Technology (TNT). The TNI is the
  161. first TNT publication. This TNIEG is the second TNT publication.
  162. It contains the best guidance that is available at this time;
  163. as technology advances and more experience is gained in implementing
  164. trusted networks, more specific guidance will be provided. This
  165. TNIEG provides elaboration and clarification on the TNI. Guidance
  166. concerning Interconnected AIS which initially appeared in the
  167. TNI, Appendix C, has been revised and incorporated into this document
  168. (see Section 6 and Appendix A).  This document does not address
  169. all of the security issues that are excluded from the TNI. Other
  170. topics, such as composing a trusted system from evaluated components,
  171. will be discussed in future TNT publications.
  172. 1.3 Purpose
  173.  
  174.  
  175.  
  176. The overall purpose of this TNIEG is to assist program managers,
  177. integrators, certifiers, and Accreditors with identifying the
  178. minimum security protection needed for different trusted computer
  179. network environments. For brevity, this audience is referred to
  180. as security managers. Not all questions can be answered at this
  181. time. The NCSC invites suggestions for topics to be addressed
  182. in future TNT publications.
  183.  
  184.  
  185. This guideline is not a tutorial on security and networking; it
  186. is assumed that the reader will have some background in both areas.
  187. Suggested background references are identified in Appendix B.
  188. This guideline is designed to be self contained; a fair amount
  189. of background information that can be found in the TNI is also
  190. included here. The interested reader may consult the TNI and other
  191. documents referenced in this guideline for further detail.
  192. 1.4 Scope
  193.  
  194.  
  195.  
  196. This document describes an environmental assessment process that
  197. helps determine the minimum level of trust recommended for a specific
  198. network operational environment. The primary focus of this document
  199. (and also of the TNI) is on the AIS 1Definitions of terms particularly
  200. important to this document are given in Section 2.
  201.  
  202.  
  203.  TNI Environments Guideline                                  
  204.      Introduction
  205.  
  206.  
  207. hardware, firmware, and software aspects of security; therefore,
  208. neither this guideline nor the TNI address all the security requirements
  209. that may be imposed on a network.  Depending on the particular
  210. environment, communications security (COMSEC), emanations security
  211. (TEMPEST), physical security, personnel security, administrative
  212. security, and other information security (INFOSEC) measures or
  213. safeguards are also required. This document applies to networks
  214. that are entrusted with the processing of information, regardless
  215. of whether that information is classified, sensitive, or otherwise
  216. relevant to national security.
  217. 1.5 Structure of the Document
  218.  
  219.  
  220.  
  221. Section 2 of this document defines terms and Section 3 discusses
  222. Network Security Architecture and Design. Section 4 guides security
  223. managers in applying Part I of the TNI; Section 5 does the same
  224. for Part II. Section 6 addresses security issues that arise when
  225. AIS are interconnected. Appendix A discusses the Cascade Condition
  226. in greater detail; Appendix B provides tutorial and background
  227. references on network security; and Appendix C discusses encryption
  228. and encryption mechanisms.
  229. 2 Terminology
  230.  
  231.  
  232.  
  233. Many of the terms used in the TNI are drawn from diverse specialization
  234. areas.
  235.  
  236.  
  237. Their special meaning in context may differ from common English
  238. usage. In this section we explain how such terms are used in the
  239. TNI and how these definitions have been refined in this document.
  240. Terms are printed in boldface when they are defined.
  241. 2.1 Automated Information System
  242.  
  243.  
  244.  
  245. An AIS is defined in DODD 5200.28 as "an assembly of computer
  246. hardware, software, and/or firmware configured to collect, create,
  247. communicate, compute, disseminate, process, store, and/or control
  248. data or information" [4]. This is both a broad definition
  249. and a new one, since DODD 5200.28 was published after the TNI.
  250.  The TNI states that "automatic data processing (ADP) systems,
  251. referred to in this [TNI] document as Automated Information System
  252. (AIS)...", and equates AIS and ADP.  We will use the DODD
  253. 5200.28 definition since it is broader and more authoritative.
  254. We also note that DODD 5200.28 tends to pluralize AIS as AISs
  255. while the TNI considers AIS to be a collective noun.  We have
  256. followed the latter convention.
  257. 2.2 Network Trusted Computing Base
  258.  
  259.  
  260.  
  261. The Network Trusted Computing Base (NTCB) is the totality of protection
  262. mechanisms within a network system2-including hardware, firmware,
  263. and software-the combination of which is responsible for enforcing
  264. a security policy. The NTCB is the network generalization of the
  265. trusted computing base (TCB). An NTCB Partition is the totality
  266. of mechanisms within a single network subsystem3 for enforcing
  267. the network policy, as allocated to that subsystem; it is the
  268. part of the NTCB within a single network subsystem.
  269.  
  270.  
  271. The distinction between a system and a subsystem is a matter of
  272. the viewpoint of the ob-server. One observer's system may be another
  273. observer's subsystem. For example, the ven-dor of a local area
  274. network may regard his product as a system, while the customer's
  275. network architect may consider it to be a subsystem along with
  276. hosts, workstations, etc.  ~e THI uses component in the definition
  277. of NTCB Partition. We use subsystem to be con-sistent in this
  278. document.
  279.  
  280.  
  281. TNI Environments Guideline                                   
  282.      Terminology
  283. 2.3 System and Component
  284.  
  285.  
  286.  
  287. The terms  system  ad  component need  to be related  to  each
  288.  other.
  289.  
  290.  
  291. Unfortunately, the TNI is not completely consistent in its use
  292. of these terms. We will first cite the relevant sections from
  293. the TNI; then we will reconcile them as used in this guideline.
  294. As discussed below, we define the relationship as follows: A component
  295. is a physical unit contained within a system.
  296. 2.3.1 TNI Introduction (definition not used in TNIEG)
  297.  
  298.  
  299.  
  300. The TNI Introduction states (emphasis added):
  301.  
  302.  
  303. A network system is the entire collection of hardware, firmware,
  304. and software necessary to provide a desired functionality. A component
  305. is any part of a system that, taken by itself, provides all or
  306. a portion of the total functionality required of a system. A component
  307. is recursively defined to be an individual unit, not useful to
  308. further subdivide, or a collection of components up to and including
  309. the entire system.
  310. 2.3.2 TNI - Appendix A (definition not used in TNIEG)
  311.  
  312.  
  313.  
  314. Appendix A of the TNI presents the view:
  315.  
  316.  
  317. a trusted network represents a composition of trusted components....
  318.  The approach to evaluation of a network suggested by this view
  319. is to partition the system into components, rate each component
  320. to determine its security-relevant characteristics, and then evaluate
  321. the composition of the components to arrive at an overall rating
  322. class for the network. This approach ... allows for the evaluation
  323. of components which in and of themselves do not support all the
  324. policies required by the TCSEC, ...  contribute[s] to the overall
  325. evaluation of any network which uses them and allows for the reuse
  326. of the evaluated component in different networks without the need
  327. for a re-evaluation of the component.
  328.  
  329.  
  330. Appendix A goes on to state that:
  331.  
  332.  
  333. The set of policy-related features to be supported by the c'omponent
  334. need not be the complete set required for a stand-alone system:
  335. features not supplied by one component for the system are supplied
  336. by another.
  337. 2.3.3 Discussion
  338.  
  339.  
  340.  
  341. We see a difference between the Introduction and Appendix A of
  342. the TNI. We
  343.  
  344.  
  345. will use the definition of component as an individual unit that
  346. does not provide acomplete set of end-user services. As a consequence,
  347. a subsystem can operate on its own and a component will require
  348. an external connection to perform a useful function.
  349.  
  350.  
  351. TNI Environments Guideline                                   
  352.      Terminology
  353.  
  354.  
  355. Appendix C of the TNI uses component, as follows, where we would
  356. use subsystem:
  357.  
  358.  
  359. Any AIS that is connected to other AIS must enforce an "Interconnection
  360. Rule" that limits the sensitivity levels of information that
  361. it may send or receive. Using the component connection view, each
  362. component responsible for maintaining the separation of multiple
  363. levels of information must decide locally whether or not information
  364. ca be sent or received.
  365.  
  366.  
  367. A component may support all the policy and accountability requirements:
  368. M, D, I, ad A4; however, as defined above, this is not applicable
  369. to determining whether an individual unit is a component. A component
  370. which supports some part of the security policy contains an NTCB
  371. partition. In the extreme, a component may not have any security-relevant
  372. function; in this case it doesn't support any TCSEC policy and
  373. doesn't contain an NTCB partition.
  374. 2.3.4 Definitions
  375.  
  376.  
  377.  
  378. To summarize the previous discussions, following are definitions
  379. for component ad system/subsystem.
  380.  
  381.  •  Component: An individual physical unit that does not
  382. provide a complete set of end-user services.
  383.  •  System/suhsystem:  A  collection of hardware,  firmware,
  384.  and  software necessary configured to collect, create, communicate,
  385. compute, disseminate, process, store, and/or control data ad information
  386. [4].
  387.  
  388.  
  389.  
  390.  
  391.  
  392. 2.4 Evaluation
  393.  
  394.  
  395.  
  396. NCSC-evaluation refers specifically to the process in which the
  397. NCSC determines whether a commercial-off-the-shelf (COTS) product
  398. satisfies the TCSE~C. Application of the TCSEC to a particular
  399. product may be assisted by an interpretation guideline such as
  400. the TNI [5]. In such a case, the guideline clarifies the meaing
  401. of the TCSEC's language with regard to a particular type of product,
  402. but in no case circumvents or grants exception to the requirements
  403. of the TCSEC.  The purpose of an NCSC-evaluation is as follows:
  404.  
  405.  
  406. 4M:datory access control, discretionary access control, identification
  407. and authentication, and audit, respectively.
  408.  
  409.  
  410. TNI Environments Guideline                                   
  411.      Terminology
  412.  
  413.  
  414. The primary goal of the NCSC is to encourage the widespread availability
  415. of trusted computer systems. This goal is realized, in large measure,
  416. through the NCSC's Commercial Product Evaluation Program.  This
  417. program is focused on the technical evaluation of the protection
  418. capabilities of off-the-shelf, commercially produced and supported
  419. systems that meet the computer security needs of government departments
  420. and agencies.  This product evaluation culminates in the publication
  421. of an Evaluated Products List (EPL) report... [6].
  422.  
  423.  
  424. An NCSC~valuation places a product in one of four divisions: D,
  425. C, B, or A.
  426.  
  427.  
  428. Division D is for systems that have been evaluated but fail to
  429. meet the requirements for a higher NCSC~valuation rating.  Division
  430. C has two classes:  C1 and C2, which require discretionary (need-to-know)
  431. protection. Division B has three classes: B1, B2, and B3, which
  432. require support for sensitivity labels and increasing robustness
  433. of system architecture.  Division A has only class Al, which requires
  434. additional assurance through formal verification methods.
  435. 2.5 Certification
  436.  
  437.  
  438.  
  439. Certification is defined as "the technical evaluation of
  440. a system's security features, made as part of and in support of
  441. the approval/accreditation process, that establishes the extent
  442. to which a particular system's design and implementation meet
  443. a set of specified security requirements" [7]. In this definition,
  444. the word evaluation is used in the generic sense and should not
  445. be confused with NCSC valuation. The primary distinction is that
  446. certification is an evaluation with respect to specified requirements,
  447. ad NCSC~valuation is an evaluation against the TCSEC (and the
  448. TNI).
  449.  
  450.  
  451. Certification is conducted in support of the accreditation decision.
  452.  For most systems, the hardware, system software, applications
  453. software, communications equipment, and the operational facility
  454. must be configured and tested during certification. Certification
  455. should be performed by technical personnel independent of the
  456. development organization, according to an acceptable methodology.
  457. Certification should identify the level of security protection
  458. with regard to a procedure, program, or system.  Certification
  459. results in the issuance of the Certification Statement, which
  460. states whether system security requirements are met, describes
  461. all known remaining vulnerabilities, and advises the Accreditor
  462. relative to the accreditation decision. If requirements are not
  463. met, the Certification Statement lists problem areas and identifies
  464. suggested solutions (if known).  A certification documentation
  465. package, called the Certification Report of Findings, submitted
  466. to the Accreditor includes the Certification Statement, certification
  467. analysis, resuils of Security Test and Evaluation, id results
  468. of Operational Test and Evaluation.
  469. 2.6 Accreditation
  470.  
  471.  
  472.  
  473. Accreditation is "the managerial authorization and approval
  474. granted to an ADP system or network to process sensitive data
  475. in an operational environment, made on the basis of a certification
  476. by designated technical personnel..." [3]. Accreditation
  477. is a management decision to operate a system or network employing
  478. specific safeguards, against a defined threat, at an acceptable
  479. level of risk, under a stated operational concept, with stated
  480. interconnections, in a specific operational environment, with
  481. a specific security mode of operation. Other terms have been used
  482. to identify the formal managerial approval for operation; in this
  483. document we use the term Accreditation.  FIPS PUB 102 defines
  484. Accrediting Officials as "the agency officials who have authority
  485. to accept an application's security safeguards and issue an accreditation
  486. statement that records that decision. The Accrediting Officials
  487. must also possess authority to allocate resources to achieve acceptable
  488. security and to remedy security deficiencies" [7]. The ultimate
  489. responsibility for system security rests with the Accreditor.
  490. DODD 5200.28 employs the term Designated Approving Authority (DAA)
  491. to refer to the same officials or officers [4].
  492.  
  493.  
  494. All AIS must be accredited before they may process or use sensitive
  495. or classified information, unless a written waiver is granted
  496. by the Accreditor. Accreditation is based on a technical investigation
  497. and a formal review of the certification Report of Findings. Before
  498. authorizing an AIS to operate, the Accreditor must ensure that
  499. satisfactory security measures have been installed and that any
  500. residual risk is within acceptable limits. Often, the Accreditor
  501. must weigh the technical shortcomings of an AIS against operational
  502. necessity. Lacking other ways to accomplish an operational mission,
  503. the Accreditor may determine that it is preferable to accept a
  504. residual security risk than to preclude the mission. To ensure
  505. that the accreditation goals and objectives are adequately met,
  506. the Accreditor must be involved throughout the system life cycle.
  507. 2.7 Two Types of Networks
  508.  
  509.  
  510.  
  511. A network may be defined as either an interconnection of accredited
  512. AIS or as a Unified Network. When it is not necessary to differentiate
  513. in this guideline, the term network is used.
  514. 2.7.1 Unified Networks
  515.  
  516.  
  517.  
  518. The TNI defines a Network Single Trusted System while DODD 5200.28
  519. Enclosure (5) defines a Unified Network; this TNIEG conforms to
  520. the latter usage.
  521.  
  522.  
  523. The section of Enclosure (5) that addresses Unified Networks is
  524. brief and instructive5:
  525.  
  526.  
  527. Some networks may be accredited as a whole without prior accreditation
  528. of their component AIS. It is necessary to treat a network as
  529. unified when some of its AIS subsystems are so specialized or
  530. dependent on other subsystems of the network for security support
  531. that individual accreditation of such subsystems is not possible
  532. or meaningful with respect to secure network operation.  In order
  533. to be accredited, a Unified Network shall possess a coherent network
  534. architecture and design, and it should be developed with an attention
  535.  to   security  requirements,  mechanisms,   and  assurances commensurate
  536. with the range of sensitivity of information for which it is to
  537. be accredited.
  538.  
  539.  
  540. The recommended approach for accrediting a Unified Network is
  541. to apply Enclosure  4  to  the  entire  network  to  derive  an
  542.  evaluation  class.  Requirements to meet that evaluation class
  543. then are obtained from an applicable interpretation of DoD 5200.28-STD
  544. [the TCSEC], such as NCSC-TG~05 [the TNI].
  545. 2.7.2 Interconnected Accredited AIS
  546.  
  547.  
  548.  
  549. Enclosure (5) of DODD 5200.28 also discusses Interconnected Accredited
  550. AIS:
  551.  
  552.  
  553. If a network consists of previously accredited AIS, a Memorandum
  554. of Agreement6 [MOA] is required between the DAA of each DOD Component
  555. AIS and the DAA responsible for the network ... The network DAA
  556. must ensure that interface restrictions and limitations are observed
  557. for connections between DOD Component AIS.  ... In particular,
  558. connections between accredited AIS must be consistent with the
  559. mode of operation of each AIS, the specific sensitivity level
  560. or range of sensitivity levels for which each AIS own and a component
  561. will require an external connection to perform a useful function
  562. is accredited, any additional interface constraints associated
  563. with the particular interface device used for the connection,
  564. and any other restrictions required by the MOA
  565.  
  566.  
  567.  ---------------------------
  568.  
  569.  
  570. 5 As mentioned in the introduction and the definitions, this TNIEG
  571. differs from DODD 5200.28 and the TNI in the usage of AIS and
  572. the definition of component. This quotation has been slightly
  573. edited to conform to the usage in this guideline. she content
  574. of a Memorandum of Agreement is discussed in Section 3.2
  575. 2.8 Network Security Architecture and Design
  576.  
  577.  
  578.  
  579. Network Security Architecture and Design (NSAD) applies to all
  580. networks. The NSAD identifies how the NTCB is partitioned and
  581. how the trusted system requirements are met. Security engineering,
  582. including the development of the NSAD, is a specialty area within
  583. systems engineering. The security engineer is responsible for
  584. ensuring that the system being built meets the security requirements
  585. of the organization.  The security engineer ensures that the AIS
  586. security conforms to applicable regulations and policy, and implements
  587. the system security requirements [8].
  588.  
  589.  
  590. The security policy includes the set of laws, rules, and practices
  591. that govern how an organization manages, protects, and distributes
  592. sensitive information (including classified information). The
  593. overall security policy is addressed in a family of related documents
  594. consisting of a system security policy, a security policy model,
  595. and security requirements. The system security policy is developed
  596. first, followed by the other two.  A system security policy interprets
  597. and applies regulations to systems. The security policy model
  598. defines subjects and objects and the accesses between the two.
  599. The security requirements document identifies evaluatable user
  600. requirements for a secure system.
  601.  
  602.  
  603. The security architecture is that part of the system architecture
  604. that describes the required security services and features.  The
  605. security architecture shows how the required level of assurance
  606. for the system is to be met.  A mapping of security requirements
  607. to functional elements is documented in the security architecture;
  608. therefore, the securily architecture is used to document security
  609. design decisions.
  610. 2.9 Protocol Layer Approach
  611.  
  612.  
  613.  
  614. This guideline discusses networks in terms of the Open System
  615. Interconnection (0SI) reference model [9] because that model provides
  616. a well-understood terminology and is used in the TNI. This guideline,
  617. however, is independent of the actual protocol reference model
  618. used.
  619.  
  620.  
  621. 274-353 0 - 90 - 2 : QL 3
  622.  
  623.  
  624. TNI Environments Guideline                                   
  625.      Terminology
  626.  
  627.  
  628. An NTCB implementation need not include all protocol layers. 
  629. The precise security services and their granularity will depend
  630. on the highest protocol layer at which an NTCB partition is implemented.7
  631.  For example, in a Unified Network where layer 3 (the network
  632. layer) is the highest layer that implements the NTCB, the network
  633. will be able to enforce mandatory access control (MAC) and discretionary
  634. access control (DAC) decisions on the granularity of network addresses8.
  635. The network system being evaluated knows only about the range
  636. of classifications that the host (or other network) is permitted
  637. to handle and the hosts (or other networks) that are permitted
  638. to communicate with each other. Finer distinctions must be made
  639. by the hosts (or other networks) involved. When a trusted network
  640. provides all seven layers, the network is aware of and enforces
  641. MAC and DAC at the granularity of individual users.
  642.  
  643.  
  644. A network device might not provide a complete set of end-user
  645. services through layer 7. Products that do not provide all system
  646. services through layer 7 may be NCSC-evaluated as components and
  647. subsequently used with other components to compose a network.
  648. 2.10 Part II Security Services
  649.  
  650.  
  651.  
  652. The terms functionality, strength of mechanism, and assurance
  653. are used to rate TNI Part II services. Their meanings in that
  654. context are described below.
  655.  
  656.  
  657. Functionality refers to the objective and approach of a security
  658. service; it includes features, mechanism, and performance.  Alternative
  659. approaches to achieving the desired functionality may be more
  660. suitable in different applications environments.
  661.  
  662.  
  663. Strength of'mechanism refers to how well a specific approach may
  664. be expected to achieve its objectives. In some cases the selection
  665. of parameters, such as number of bits used in a checksum or the
  666. number of permutations used in an encryption algorithm, can significantly
  667. affect strength of mechanism. Wiih regard to inadvertent threats,
  668. strength refers to the ability to operate correctly during natural
  669. disasters, emergencies, operator errors, and accidents.  Inadvertent
  670. threats are particularly
  671.  
  672.  
  673. 7 Since the publication of the TNI, the policy environment has
  674. changed. "User", as defined in DODD 5200.28, ad peer.entity,
  675. as defined in the 051 reference model, are comparable.  Therefore,
  676. the TNIEG applies to all layers of the 051 architecture.
  677.  
  678.  
  679. 8 A network address refers to either a host or another network.
  680.  
  681.  
  682. TNI Environments Guideline                                   
  683.      Terminology
  684.  
  685.  
  686. critical to prevention of denial of service. As an example, for
  687. communications line outages, strength of mechanism may refer to
  688. the number of alternate routes that may be used to bypass the
  689. outage.  The misdelivery of messages is an example of an inadvertent
  690.  threat  that  may  disclose  information  to  unauthorized  individuals.
  691.  Encryption can be used to prevent the unintended recipient from
  692. seeing the information.
  693.  
  694.  
  695. Assurance refers to a basis for believing that the functionality
  696. will be achieved; it includes tamper resistance, verifiability,
  697. and resistance against circumvention or bypass.  Assurance is
  698. generally based on analysis involving theory, testing, software
  699. engineering, validation and verification, and related approaches.
  700. The analysis may be formal or informal.
  701. 3 Network Security Architecture and Design (NSAD)
  702.  
  703.  
  704.  
  705.  Every network should have a Network Security Architecture and
  706. Design (NSAD).  This section helps the security manager in establishing
  707. the NSAD for the network.
  708.  
  709.  
  710. The NSAD, produced as part of the risk management process, documents
  711. the security services. As mentioned in Section 1, the primary
  712. focus of this TNIEG is on the  AIS  aspects  of  security.   Depending
  713.  on  the  particular  environment, communications security (COMSEC),
  714. emanations security (TEMPEST), physical security, personnel security,
  715. administrative security, and other information security (INFOSEC)
  716. measures or safeguards are also incorporated in the NSAD. An NSAD
  717. results from a series of tradeoffs among cost, effectiveness,
  718. technical risk, mission requirements, and risk management.
  719.  
  720.  
  721. While the architecture part of the NSAD may be somewhat abstract,
  722. the design part should be quite concrete. The design maps the
  723. selected security services to system functional elements9. Next,
  724. these functional elements are assigned to components and subsystems.
  725. 3.1 Composing an NSAD
  726.  
  727.  
  728.  
  729. The security manager is responsible for ensuring that an NSAD
  730. is defined that applies to all the components or subsystems that
  731. constitute the network. The NSAD for a network must address the
  732. applicable security-relevant policies and may incorporate the
  733. NSADs of its constituent components or subsystems. In some cases,
  734. such as when a component provides part of the functionality of
  735. the network (e.g., a local area network (LAN) providing 051 layer
  736. three communication services), the NSAD of the component may be
  737. incorporated with little or no change into the NSAD for the network.
  738. The component NSAD will probably require some modification to
  739. address the applicable policy and environment constraints.
  740.  
  741.  
  742. A typical network configuration will include multiple vendor's
  743. products. When the network is created, the security manager must
  744. reconcile the diverse NSADs of the constituents into a coherent
  745. NSAD for the configured network and identify any 
  746.  
  747.  
  748. 9 Sections 4 and 5 of this document should guide the security
  749. manager in selecting those securi-ty services and safeguards that
  750. are appropriate for the given operational environment.
  751.  
  752.  
  753. TNI Environments Guideline              Network Security Architecture
  754. and Design
  755.  
  756.  
  757. restrictions or new security services and assurance that must
  758. be added. The NSAD must implement national, service, and command
  759. policies for the environment in which the network will operate.
  760. The same process applies when previously accredited AIS are to
  761. be interconnected to support the exchange of information.
  762.  
  763.  
  764. In contrast to the networks described above, when a network is
  765. created from scratch, the NSAD may be established before any devices
  766. are selected and may be included as part of the criteria for selecting
  767. the network devices.
  768.  
  769.  
  770. Note that the network may include components that are not security-relevant
  771. and, therefore, do not have a component NSAD. The design decisions
  772. that result in the inclusion of non-security-relevant components
  773. are documented in the NSAD.
  774.  
  775.  
  776. AIS may be combined into a network under conditions of a hierarchical
  777. relationship of their security managers. In this case the NSAD
  778. of the subordinate system must conform to the governing NSAD.
  779. For example, when a host computer connects to a common user network,
  780. the host computer must conform to the NSAD established by the
  781. security manager of the common user network, who has a responsibility
  782. to the security managers of all other connected AIS to maintain
  783. the network's trustworthiness.  As discussed below, this conformance
  784. is recorded in a Memorandum of Agreement (MOA).
  785.  
  786.  
  787. AIS whose security managers are not hierarchically related may
  788. also be combined to form a network. In this case, the security
  789. managers come to agreement on the NSAD for the network; this agreement
  790. is also recorded in an MOA.
  791. 3.2 Memorandum of Agreement
  792.  
  793.  
  794.  
  795. If a network consists of previously accredited AIS, a MOA is required
  796. between the Accreditors for each subsystem. This MOA is part of
  797. the documentation of the NSAD. The MOA discusses the accreditation
  798. requirements for each subsystem that is to be interconnected to
  799. form the network [4], i.e., defines all the terms and conditions
  800. of the security arrangements that will govern the operation of
  801. the network [10]. The objective of the MOA is to document the
  802. interconnection requirements and identify any requirements that
  803. may be necessary to provide overall security safeguards for the
  804. entire network. This network includes all the interconnected subsystems,
  805. the communications devices, the usei-s, and the data stored in
  806. the subsystem 
  807.  
  808.  
  809. [10].  A Memorandum of Record (MOR) is used when the subsystems
  810. have the same Accreditor. A comprehensive M0A10 could constitute
  811. the entire NSAD for a network; alternatively, the MOA could contain
  812. high level agreements, with the details spelled out in supporting
  813. documents.  Following is a list of suggestions for the contents
  814. of the MOA and supporting documents. The items towards the top
  815. of the list are more likely to occur in the MOA; those towards
  816. the end of the list are more likely to occur in supporting documents.
  817.  
  818.  •  A general description of the information that will
  819. be transmitted to the network by each subsystem
  820.  •  A summary discussion of the trusted behavior that is
  821. expected from each subsystem
  822.  •  The details of the overall security plan for the network
  823. and the assignment of responsibility for producing and accepting
  824. the plan
  825.  •  A description of the overall network security policy
  826.  •  A description of additional security training and assignment
  827. of training responsibility
  828.  •  Specification of the security parameters that are to
  829. be transmitted between communicating subsystems
  830.  •  A discussion of security details that are relevant
  831. to the exchange of information among the subsystems.
  832.  •  A description of the user community, including the
  833. lowest clearance of any user who will have access to the network
  834.  •  Any special considerations for dial-up connections
  835. to any subsystem in the network, including potential security
  836. threats and the safeguards that will be used.
  837.  •  A description of the security protections provided
  838. by the data communications, both local to a subsystem and between
  839. communicating subsystem
  840.  
  841.  
  842.  
  843.  
  844.  
  845.  
  846.  
  847. ________________
  848.  
  849.  
  850. 10 In this guideline, NOA is used to identify the agreement between
  851. Accreditors and includes the NOR.
  852.  
  853.  
  854. TNI Environments Guideline              Network Security Architecture
  855. and Design
  856.  
  857.  •  A description of the information that each subsystem
  858. will log in the audit trail, and how the audit trail tasks will
  859. be divided among the subsystems
  860.  •  A description of the information security services
  861. to be offered to the network by each subsystem, including:
  862.  •  The types of processing provided by each subsystem,
  863. e.g., file query, individual user, general processing
  864.  •  The modes of operation of all the subsystems, e.g.,
  865. dedicated, system high, multilevel
  866.  •  The sensitivity levels processed on all subsystems
  867.  
  868.  
  869.  
  870.  
  871.  
  872. 4 TNI Part I Security Requirements
  873.  
  874.  
  875.  
  876. This section assists the security manager in determining the recommended
  877. minimum security requirements based on TNI Part I and Appendix
  878. A, which interprets the TCSEC for networks.
  879.  
  880.  
  881. The procedure for determining the minimum security requirements
  882. for a network parallels the procedure for a stand-alone system,
  883. whereby the highest classification of data and the lowest clearance
  884. among system users are used in computing a risk index.  The risk
  885. index is used to determine which NCSC~vaIuation rating is required
  886. of the system to provide adequate security.  To emphasize, these
  887. are the minimum requirements. The TCSEC Environments Guideline
  888. does not address environmental factors such as the number of users
  889. and the percentage of users at different classification levels.
  890.  These factors may become more significant in a network environment.
  891. Communications security risk in a network is addressed by the
  892. National Security Agency (NSA) and other cognizant organizations
  893. and results in a set of recommendations for the appropriate equipment
  894. or security procedures. Other factors, such as the number of connections,
  895. the physical distance between devices, the number of subsystems,
  896. the presence of encryption, and the possible presence of intervening
  897. systems between the resources being used and the ultimate user
  898. may result in more or less stringent requirements.
  899. 4.1 Risk Management
  900.  
  901.  
  902.  
  903. Risk management is a methodology used to identify, measure, and
  904. control events which adversely affect security; it involves cost-benefit
  905. analyses to ensure appropriate cost~ffectiveness of security safeguards.
  906. A risk management program is mandated by Enclosure (3) of DODD
  907. 5200.28.
  908.  
  909.  
  910. The literature on risk management is quite extensive. It is not
  911. the ;Purpose of this document to survey the field. The interested
  912. reader is referred to FIPS PUB 65 [11].  The literature is constantly
  913. growing; a recent high-level introduction to general concepts
  914. and terminology can be found in Bell [12] and in the Proceedings
  915. of the First Invitational Workshop on Computer Security Risk Management
  916. [13].
  917.  
  918.  
  919. DODD 5200.28 Enclosure (4) mandates the use of a methodology,
  920. extracted from
  921.  
  922.  
  923. the TCSEC Environments Guideline, to determine the recommended
  924. evaluation class
  925.  
  926.  
  927. TNI Environments Guideline                    TNI Part I Security
  928. Requirements
  929.  
  930.  
  931. (or requirements of an evaluation class) based on a specific environment.
  932. Enclosure (5) of the Directive also recommends this method to
  933. determine minimum computer-based requirements in a network. This
  934. guideline also uses that method. Use of a different method requires
  935. prior approval of the Assistant Secretary of Defense (ASD) Command,
  936. Control, Communications, and Intelligence (C31).
  937.  
  938.  
  939. DODD 5200.28 Enclosure (4) contains six major steps in the risk
  940. assessment procedure. These steps are listed below. DODD 5200.28
  941. Enclosure (4) applies in all steps.
  942.  
  943.  
  944. Step 1. Determine system security mode of operation.
  945.  
  946.  
  947. Step 2. Determine minimum user clearance or authorization rating.
  948.  
  949.  
  950. Step 3. Determine maximum data sensitivity rating.
  951.  
  952.  
  953. Step 4. Determine risk index.
  954.  
  955.  
  956. Step 5. Determine minimum security evaluation class for computer-based
  957. controls.
  958.  
  959.  
  960. Step 6. Determine adjustments to computer security evaluation
  961. class required.
  962.  
  963.  
  964. An elaboration of step six given in Migues [14], involving a detailed
  965. analysis of both environmental and architectural risk factors,
  966. is based on Landwehr and Lubbes [15]. It presents a method which
  967. incorporates analysis of the applications environment.  This analysis
  968. includes such factors as whether the system allows programming,
  969. or whether it is restricted to a limited set of applications.
  970. This more detailed information supports a finer determination
  971. of the level of trust required.
  972. 4.2 Determination of Network Risk
  973.  
  974.  
  975.  
  976. To apply the TCSEC Environments Guideline guidance, the security
  977. manager must determine the following:
  978.  
  979.  •  minimum clearance or authorization of the network usefs
  980. (see Table 1 11),
  981.  
  982.  
  983.  
  984.  
  985.  
  986.  
  987.  
  988. TNI Environments Guideline                    TNI Part I Security
  989. Requirements
  990.  
  991.  
  992. Table 1
  993.  
  994.  
  995. Rating Scale for Minimum User Clearance ~m1n)
  996.  
  997. Minimum User Clearance               Rmin                                  
  998.  
  999. Uncleared OR Not Authorized (U)      0                                     
  1000.  
  1001. Not Cleared but Authorized Access    1                                     
  1002. to Sensitive                                                               
  1003.  
  1004. Confidential                                                              
  1005.  
  1006. Secret(S)                            3                                     
  1007.  
  1008. Top Secret (TS) and/or current       4                                     
  1009. Background Investigation (BI)                                              
  1010.  
  1011. TS and/or current Special            5                                     
  1012. Background Investigation (SBI)                                             
  1013.  
  1014. One Category (IC)                    6                                     
  1015.  
  1016. Multiple Categories (MC)              7                                    
  1017.  
  1018.  
  1019.  
  1020.  
  1021.  
  1022.  
  1023.  
  1024.  
  1025.  •  maximum sensitivity of data processed by the network
  1026. (see Table 2) (the TCSEC Environments Guideline distinguishes
  1027. between an open system and a closed system based on whether application
  1028. development was done by cleared or uncleared users; the distinction
  1029. was dropped in DODD 5200.28 and is not used here either).
  1030.  
  1031.  
  1032.  
  1033.  • The number derived from Table 1 is used for Rmin; the one
  1034. derived from Table 2
  1035.  
  1036.  
  1037.  
  1038.  
  1039. is used for Rmax.  A risk index for the network is calculated
  1040. using the following formula:
  1041.  
  1042.  
  1043. Risk Index = Rmax - Rmin
  1044.  
  1045.  
  1046. TNI Environments Guideline                    TNI Part I Security
  1047. Requirements
  1048.  
  1049.  • Table 2
  1050.  • Rating Scale for Maximum Data Sensitivity ffm:)
  1051.  
  1052.  
  1053.  
  1054.  
  1055.  
  1056.  
  1057. Maximum                                                                      
  1058. Sensitivity                                                                  
  1059. Rating                                                                       
  1060.  Maximum Data                                                                
  1061.            Rating                                                            
  1062.  
  1063. Ratings without     (Rmax)             Sensitivity         (Rmax)            
  1064.  
  1065. categories          with categories                                          
  1066.                    1,2                                                       
  1067.  
  1068. Unclassified U     0                  N/A 3                                  
  1069.  
  1070. Not Classified     2                                                         
  1071. but    1       N                                                             
  1072. with one or more                                                             
  1073. Categories                                                                   
  1074.  
  1075. Sensitive N                                                                  
  1076.  
  1077. Confidential C     3                                                         
  1078.     2         C                                                              
  1079. with one or more                                                             
  1080. Cate ories                                                                   
  1081.  
  1082. Secret (S)          4                                                        
  1083.  3         S with                                                            
  1084. one or more                                                                  
  1085. Categones                                                                    
  1086.  
  1087. only one Category                                                            
  1088. containing S                                                                 
  1089.  
  1090. S with two or      5                                                         
  1091. more Categories                                                              
  1092.  
  1093. containin S                                                                  
  1094.  
  1095. Top Secret (TS)     6                                                        
  1096.     5 5       TS                                                             
  1097. with one or more                                                             
  1098. Categories                                                                   
  1099.  
  1100. only one Category                                                            
  1101. containing S or                                                              
  1102. TS                                                                           
  1103.  
  1104. TS with two or     7                                                         
  1105. more Categories                                                              
  1106.  
  1107. containin S or TS                                                            
  1108.  
  1109.  
  1110.  
  1111.  
  1112.  
  1113.  
  1114. 1 Where the number of categories is large or where a highly sensitive
  1115. category is involved, a higher rat-ing might be warranted.
  1116.  
  1117.  
  1118. 2 The only categories of concern are those for which some users
  1119. are not authorized access.  When counting the number of categories,
  1120. count all categories regardless of the sensitivity level associated
  1121. with the data. If a category is associated with more than one
  1122. sensitivity level, it is only counted at the highest level. Systems
  1123. in which all data are in the same category are treated as without
  1124. categories.
  1125.  
  1126.  
  1127. 3 Unclassified data by definition may not contain categories.
  1128.  
  1129.  
  1130. 4 Examples of N data include financial, proprietary, privacy,
  1131. and mission-sensitive data. In some situa-tions (e.g., those involving
  1132. extremely large financial sums or critical mission-sensitive data),
  1133. a higher rat-ing may be warranted. This table prescribes minimum
  1134. ratings.
  1135.  
  1136.  
  1137. 5 The rating increment between the Secret and Top Secret data
  1138. sensitivity levels is greater than the in-crement between other
  1139. adjacent levels. This difference derives from the fact that the
  1140. loss of Top Secret data causes EXCEPTIONALLY GRAVE damage to U.S.
  1141. national security, whereas the loss of Secret data causes SERIOUS
  1142. damage.
  1143.  
  1144.  
  1145. THI Environments Guideline                    TNI Part I Security
  1146. Requirements
  1147.  
  1148.  • Table 3
  1149.  • Security Risk Index
  1150.  
  1151.  
  1152.  
  1153.  
  1154.  
  1155.  
  1156. Risk Index               Security Mode             Minimum Security Class   
  1157.                                                    4                        
  1158.  
  1159. 0                        Dedicated                 No Minimum Class 1 2     
  1160.  
  1161. 0                        System High               C2  2                    
  1162.  
  1163. 1                        Multilevel Partitioned    B1  3                    
  1164.  
  1165. 2                        Multilevel Partitioned    B2                       
  1166.  
  1167. 3                        Multilevel                B3                       
  1168.  
  1169. 4                        Multilevel                A1                       
  1170.  
  1171. 5                        Multilevel                *                        
  1172.  
  1173. 6                        Multilevel                *                        
  1174.  
  1175. 7                        Multilevel                *                        
  1176.  
  1177.  
  1178.  
  1179.  
  1180.  
  1181.  
  1182. 1 Although there is no prescribed minimum class, the integrity
  1183. and denial of service requirements of many systems warrant at
  1184. least class C2 protection.
  1185.  
  1186.  
  1187. 2 Automated markings on output must not be relied on to be accurate
  1188. unless at least class B1 is used.
  1189.  
  1190.  
  1191. 3 Where an AI$ handles classified or compartmented data and some
  1192. users do not have at least a Confi-dential clearance, or when
  1193. there are more than two types of compartmented information being
  1194. handled, at least a class B2 is required.
  1195.  
  1196.  
  1197. 4 The asterisk (*) indicates that computer protection for environments
  1198. with that risk index is considered to be beyond the state of current
  1199. computer security technology.
  1200.  
  1201.  
  1202. 5 Most embedded systems and desk top computers operate in the
  1203. dedicated mode.
  1204.  
  1205.  
  1206. Table 3 12 is used, along with the Risk Index calculated above,
  1207. to determine a minimum NCSC-evaluation rating for the system.
  1208. Note that some terms that appear m the TCSEC Environments Guideline
  1209. are no longer defined in DODD 5200.28.  (Limited Access Mode,
  1210. and Compartmented Mode fall under the heading of Partitioned Mode.
  1211. Controlled Mode comes under the heading Multilevel. The prevt.ou:sly
  1212. used terms referred to the equivalent of the BI and B2 evaluation
  1213. classes. In DODD 5200.28, Partitioned Mode is used in place of
  1214. Compartmented Mode.)
  1215.  
  1216.  
  1217. ____________________
  1218.  
  1219.  
  1220. 12 Table 3 is adapted from the TCSEC Environments Guideline
  1221. 5 TNI Part II Security Requirements
  1222.  
  1223.  
  1224.  
  1225. This section contains a discussion of TNI Part II which describes
  1226. qualitative evaluations of security services in terms of functionality,
  1227. strength of mechanism, and assurance. Part II of the TNI describes
  1228. additional security concerns and services that arise in conjunction
  1229. with networks, but that do not normally arise in stand-alone computers.
  1230.  
  1231.  
  1232. Part II of the TNI focuses on those threats that occur between
  1233. end systems (hosts) on the network. These security services include
  1234. protection against compromise, denial of service, and unauthorized
  1235. modification.  In discussing these services, the TNI borrows heavily
  1236. from the International Standards Organization (150) 051 Basic
  1237. Reference Model [9] and Security Architecture [16]. The services
  1238. discussed are closely related to those found in the latter reference.
  1239. The TNI goes beyond the 051 Security Architecture in several respects.
  1240. First, the 051 document does not address the relative strengths
  1241. of different mechanisms nor the assurances that they operate as
  1242. intended.  Second, the protection against denial of service threats
  1243. is not specifically addressed by 051 but is an important consideration
  1244. in the TNI.
  1245. 5.1 Relationship of TNI Part II Services to Part I and Appendix
  1246.  
  1247.  
  1248.  • The Part II services are not as well understood as the features
  1249. in TN1 Part I. The fact that Part 11 services have not been supported
  1250. by equally well developed theories and detailed evaluation criteria
  1251. should not be interpreted to imply that their security problems
  1252. do not have to be evaluated as rigorously as TNI Part I and Appendix
  1253. A services. Some Part II services may not be part of the NTCB.
  1254. For example, to make the NTCB as small as possible, some of the
  1255. protocol software may be outside the NTCB. Therefore, the protocol-based
  1256. protection against denial of service is likely to be outside the
  1257. NTCB. Nonetheless, it must rely on some of the fundamental NTCB
  1258. assurances since the protocols invoke portions of the subsystem's
  1259. operating system.
  1260.  • It is important to recognize that many Part II security services
  1261. depend on (embedded) AIS. These AIS should be evaluated using
  1262. Part I and Appendix A of the TNI. Encryption systems, for example,
  1263. are highly dependent upon AIS; they are addressed in Appendix
  1264. B of the TNI and Appendix C of this guideline. Appendix C presents
  1265. some considerations concerned with applying Tables 1, 2, and 3
  1266. to encryption systems.
  1267.  
  1268.  
  1269.  
  1270.  
  1271. 25
  1272.  
  1273.  
  1274. TNI Environments Guideline                    TNI PartII Security
  1275. Requirements
  1276.  
  1277.  
  1278. For security services that do not depend strongly on AIS, a qualitative
  1279. evaluation approach is used. For functionality, a question and
  1280. answer format is presented in Section 5.4.3. For strength of mechanism
  1281. and assurance, the concept of a risk index is used in Sections
  1282. 5.4.1 and 5.4.2.
  1283. 5.2 Specification and Evaluation of Security Services
  1284.  
  1285.  
  1286.  
  1287. Specifying and evaluating Part II security services is quite different
  1288. from a TNI Part I evaluation even though both parts are concerned
  1289. with the same three aspects of security services or capabilities:
  1290. functionality, strength of mechanism, and assurance. For clarity
  1291. these terms are defined as follows: Functionality refers to the
  1292. objective and approach of a security service. Sirength of mechanism
  1293. refers to how well a specific approach may be expected to achieve
  1294. its objectives. Assurance refers to a basis for believing that
  1295. the functionality will be achieved.
  1296. 5.3 Evaluation Ratings
  1297.  
  1298.  
  1299.  • Part II evaluations are qualitative, as compared with the
  1300. hierarchically~rdered ratings (e.g., C1, C2, ...) from the TCSEC.
  1301. The results of a Part II evaluation for offered services are generally
  1302. summarized using the terms none, minimum, fair, and good. For
  1303. some services, functionality is summarized using none or present
  1304. because gradations are not meaningful. Theterm none is used to
  1305. mean the security service fails to distinguish the strength of
  1306. mechanism. The term not offered is used when a security service
  1307. is not offered.  For example, if a certain network did not include
  1308. non-repudiation as one of its security services, that network
  1309. would be rated not offered with respect to non-repudiation. Table
  1310. 4 represents the evaluation structure of PartII as a matrix. It
  1311. identifies a set of security services. It also shows the possible
  1312. evaluation ranges for each service in terms of its functionality,
  1313. strength of mechanism, and assurance.
  1314.  
  1315.  
  1316.  
  1317.  
  1318.  
  1319. 5.4 Selecting Security Services
  1320.  
  1321.  
  1322.  
  1323. Part II enumerates representative security services that an organization
  1324. may choose to employ in a specific situation.  Not all security
  1325. services will be equally important for a specific environment,
  1326. nor will their relative importance be the same
  1327.  
  1328.  
  1329. TNI Environments Guideline                   TNI Part II Security
  1330. Requirements
  1331.  
  1332.  • Table 4
  1333.  • Evaluation Structure for Network Security Services
  1334.  
  1335.  
  1336.  
  1337.  
  1338.  
  1339.  
  1340. Network Security   Criterion          Evaluation                             
  1341. Service                                                                      
  1342.  
  1343. Communications     None present                                              
  1344. Integrity                                                                    
  1345. Functionality                                                                
  1346.  
  1347. Authentication     None               good                                   
  1348. Strength                                                                     
  1349.  
  1350. Assurance          None               good                                   
  1351.  
  1352. Communications     None               good                                   
  1353. Field Integrity                                                              
  1354. Functionality                                                                
  1355.  
  1356. Strength                              None                good               
  1357.  
  1358. Assurance          None               good                                   
  1359.  
  1360. Non-repudiation    None               present                                
  1361. Functionality                                                                
  1362.  
  1363. Strength            Denial of         None                good               
  1364.                    Service                                                   
  1365.  
  1366. Continuity of      None               good                                   
  1367. Operations                                                                   
  1368. Functionality                                                                
  1369.  
  1370. Strength                              None                good               
  1371.  
  1372. Assurance          None               good                                   
  1373.  
  1374. Protocol Based     None               good                                   
  1375. Protection                                                                   
  1376. Functionality                                                                
  1377.  
  1378. Strength           None               good                                   
  1379.  
  1380. Assurance          None               good                                   
  1381.  
  1382. Network            None               present                                
  1383. Management                                                                   
  1384. "Functionality                                                               
  1385.  
  1386. Strength           None               good                                   
  1387.  
  1388. Compromise         None               present                                
  1389. Protection Data                                                              
  1390. Confidentiality                                                              
  1391. Functionality                                                                
  1392.  
  1393. Strength                                                                     
  1394. Sensitivity level                                                            
  1395.  
  1396. Assurance          None               good                                   
  1397.  
  1398. Traffic Flow       None               present                                
  1399. Confidentiality                                                              
  1400. Functionality                                                                
  1401.  
  1402. Strength           Sensitivity        level                                  
  1403.  
  1404. Assurance          None               good                                   
  1405.  
  1406. Selective Routing  None               present                                
  1407. Functionality                                                                
  1408.  
  1409. Strength           None               good                                   
  1410.  
  1411. Assurance          None               good                                   
  1412.  
  1413.  
  1414.  
  1415.  
  1416.  
  1417.  
  1418.  
  1419.  
  1420.  
  1421. among different environments. Selecting security services is a
  1422. management decision, with assistance provided by this guideline.
  1423.  
  1424.  
  1425. Ordinarily, the security manager would first determine whether
  1426. a particular service is required and what functionality is needed
  1427. (if there are distinctions) through a series of questions provided
  1428. in Section 5.4.3. A separate set of questions is provided for
  1429. each service shown in Table 4.
  1430.  
  1431.  
  1432. Once the functionality has been determined, the strength of mechanism
  1433. and appropriate level of assurance must be determined. The process
  1434. is similar to the determination of Part I risk in Section 4 of
  1435. this guideline.  Since the strength of mechanism and assurance
  1436. determination do not differ for the various services, these topics
  1437. are addressed first.
  1438. 5.4.1 Strength of Mechanism
  1439.  
  1440.  
  1441.  
  1442. Determination of strength of mechanism for each service has two
  1443. components. The inadvertent threat and the malicious threat should
  1444. be analyzed separately. In many cases, the malicious threat will
  1445. dominate the inadvertent threat; malicious users can often duplicate
  1446. the circumstances of an inadvertent threat. The required strength
  1447. of mechanism is determined using a risk index similar to that
  1448. used in PartI.
  1449.  
  1450.  
  1451. For inadvertent threats, traditional risk management techniques
  1452. are used. While some countermeasures may be the same for inadvertent
  1453. and malicious threats, others may be effective only against the
  1454. former. The security manager must determine the likelihood of
  1455. a particular threat, the dollar cost of a countermeasure, and
  1456. the residual risk if the countermeasure is put into effect. The
  1457. manager concerned with these inadvertent threats is referred to
  1458. the references on risk assessment previously cited.
  1459.  
  1460.  
  1461. For malicious threats, we consider the most sensitive information
  1462. contained on the system and the lowest clearance of user who can
  1463. gain physical access to some device in the system, including access
  1464. to wireless transmissions. Some devices in the system may be physically
  1465. protected in buildings that require a clearance for admittance.
  1466. Other devices in the system, such as long-haul transmission lines,
  1467. may have no physical protection.
  1468.  
  1469.  
  1470. Protection of the information in the network system is a combination
  1471. of physical, administrative, procedural, and technical protections.
  1472. The TNIlis concerned only with the AIS hardware, firmware, software,
  1473. and configuration management protections.  Various service or
  1474. agency regulations describe methods for implementing the other
  1475. protections.
  1476.  
  1477.  
  1478. The various devices in the system must be considered separately;
  1479. for each device,
  1480.  
  1481.  
  1482. the risk index will be based on the most sensitive information
  1483. on the network system and the minimum clearance to gain physical
  1484. access to the device. Note that this is
  1485.  
  1486.  
  1487. different from the Part I risk index calculation (where the lowest
  1488. cleared user is of concern).  For some devices in the system (e.g.,
  1489. the communications media), the clearance of individuals with physical
  1490. access may be lower than that for authorized users. For convenience,
  1491. all the necessary tables are included here. Table 5, Minimum Clearance
  1492. for Physical Access, is identical to Table 1. For each device
  1493. in the system, the lowest clearance of individuals with physical
  1494. access to that device is used. Table 6 for Maximum Data Sensitivity
  1495. is identical to Table 2.
  1496.  
  1497.  • Table 5
  1498.  • Minimum Clearance for Physical Access
  1499.  
  1500.  
  1501.  
  1502.  
  1503.  
  1504.  
  1505. Minimum User Clearance               Rmin                                  
  1506.  
  1507.                                                                            
  1508.  
  1509. Uncleared OR Not Authorized (U)       0                                    
  1510.  
  1511. Not Cleared but Authorized Access     1                                    
  1512. to Sensitive                                                               
  1513.  
  1514. Unclassified Information (N)                                               
  1515.  
  1516. Confidential                        2                                     
  1517.  
  1518. Secret (S)                            3                                    
  1519.  
  1520. Top Secret (TS) and/or current       4                                     
  1521. Background                                                                 
  1522.  
  1523. Investigation (BI)                                                         
  1524.  
  1525. TS and/or current Special            5                                     
  1526. Background                                                                 
  1527.  
  1528. Investigation (SBI)                                                        
  1529.  
  1530. One Category (IC)                     6                                    
  1531.  
  1532. Multiple `Categories (MC)             7                                    
  1533.  
  1534.                                                                            
  1535.  
  1536.  
  1537.  
  1538.  
  1539.  
  1540.  
  1541. Table 6
  1542.  
  1543.  • Maximum Data Sensitivity
  1544.  
  1545.  
  1546.  
  1547.  
  1548.  
  1549.  
  1550.  
  1551.   Maximum Sensitivity  Rating             Maximum Data       
  1552.         Rating
  1553.  
  1554.  
  1555.     Ratings without    (Rmax)                Sensitivity     
  1556.         (Rmax)
  1557.  
  1558.  
  1559.       Categories                          with Categoriesi,1 2
  1560.  
  1561.  
  1562.     Unclassified U        0                    N/A 3
  1563.  
  1564.  
  1565.     Not Classified but    1         N with one or more Categories
  1566.        2
  1567.  
  1568.  
  1569. Sensitive N 4
  1570.  
  1571.  
  1572.     Confidential C        2         C with one or more Cate ories
  1573.        3
  1574.  
  1575.  
  1576.        Secret (S)         3         5 with one or more Categories
  1577.        4
  1578.  
  1579.  
  1580.                                     only one Category containing
  1581. 5
  1582.  
  1583.  
  1584.                                     S with two or more Categories
  1585.        5
  1586.  
  1587.  
  1588. containin S
  1589.  
  1590.  
  1591.     Top Secret (TS)      5 5        TS with one or more Categories
  1592.       6
  1593.  
  1594.  
  1595.                                   only one Category containing
  1596. 5 or TS
  1597.  
  1598.  
  1599.                                    T5 with two or more Categories
  1600.        7
  1601.  
  1602.  
  1603. containin S or TS
  1604.  
  1605.  
  1606. 1 Where the number of categories is large or where a highly sensitive
  1607. category is involved, a higher rat-ing might be warranted.
  1608.  
  1609.  
  1610. 2 The only categories of concern are those for which some users
  1611. are not authorized access.  When counting the number of categories,
  1612. count all categories regardless of the sensitivity level associated
  1613. with the data. If a category is associated with more than one
  1614. sensitivity level, it is only counted at the highest level. Systems
  1615. in which all data are in the same category are treated as without
  1616. categories.
  1617.  
  1618.  
  1619. 3 Unclassified data by definition may not contam categories.
  1620.  
  1621.  
  1622. 4 Examples of N data include financial, proprietary, privacy,
  1623. and mission-sensitive data. In some situa-tions (e.g., those involving
  1624. extremely large financial sums or critical mission-sensitive data),
  1625. a higher rat-ing may be warranted. This table prescribes minimum
  1626. ratings.
  1627.  
  1628.  
  1629. 5 The rating increment between the Secret and Top Secret data
  1630. sensitivity l~els is greater than the in-crement between other
  1631. adjacent levels. This difference derives from the fact that the
  1632. loss of Top Secret data causes EXCEPTIONALLY GRAVE damage to U.S.
  1633. national security, whereas the loss of Secret data causes SERIOUS
  1634. damage.
  1635.  
  1636.  
  1637. Table 7 now gives the strength of mechanism requirement based
  1638. on the risk index
  1639.  
  1640.  
  1641. calculated as
  1642.  
  1643.  
  1644. Risk Index = Rmax - Rmin
  1645.  
  1646.  • Table 7
  1647.  • Minimum Strength of Mechanism Requirement
  1648.  
  1649.  
  1650.  
  1651.  
  1652.  
  1653.  
  1654.  
  1655. Risk    Strength of
  1656.  
  1657.  •  None
  1658.  
  1659.  • 1 Minimum
  1660.  • 2 Fair
  1661.  
  1662.  
  1663.  
  1664.  
  1665.  
  1666.  
  1667. >2        Good
  1668. 5.4.2 Assurance
  1669.  
  1670.  
  1671.  
  1672. Assurance is a very important concept in the TCSEC and TNI. This
  1673. section discusses the need for assurance and the ways in which
  1674. it may be achieved.
  1675.  
  1676.  
  1677. One salient property of trusted systems is the reliance on a TCB.
  1678.  Similarly, trusted network systems rely on an NTCB. In addition
  1679. to its other responsibilities, the NTCB prevents unauthorized
  1680. modification to objects within the network system. In particular,
  1681. the NTCB maintains the integrity of the programs which provide
  1682. security services, thus ensuring that their assurance is continued.
  1683.  The NTCB provides an execution environment that is extremely
  1684. valuable in enhancing the assurance of security services. Discretionary
  1685. and mandatory access controls can be employed to segregate unrelated
  1686. services. Thus, service implementation that is complex and error-prone
  1687. or obtained from an unevaluated supplier can be prevented from
  1688. degrading the assurance of other services implemented in the same
  1689. device. Furthermore, an NTcB ensures that the basic protection
  1690. of the security and integrity information entrusted to the network
  1691. is not diluted by various supporting security services.
  1692.  
  1693.  
  1694. The relationship of the risk index to the required assurance is
  1695. expressed in Table 8.
  1696.  
  1697.  
  1698. TNI Environments Guideline                    TNI PartII Security
  1699. Requirements
  1700.  
  1701.  
  1702. Table 8
  1703.  
  1704.  
  1705. Minimum Assurance Requirements
  1706.  
  1707.  
  1708. Risk       Part II
  1709.  
  1710.  
  1711.        Index   Assurance Rating
  1712.  
  1713.  •  None
  1714.  
  1715.  • 1 Minimum
  1716.  • 2 Fair
  1717.  • >2          Good
  1718.  
  1719.  
  1720.  
  1721.  
  1722.  
  1723.  
  1724.  
  1725.  
  1726.  
  1727. Assurance of the design and implementation of PartII mechanisms
  1728. is also related to the assurance requirements in Part I because
  1729. service integrity depends on protection by the NTCB or TCBs. Table
  1730. 9 expresses this dependency.  The second column identifies the
  1731. minimum Part I evaluation which supports the Part II assurance
  1732. requirement. Note that Table 9 is applicable only to those PartII
  1733. services not strongly dependent on AIS; the AIS implementing those
  1734. services can be directly evaluated under PartI and Appendix A
  1735. of the TNI.
  1736.  
  1737.  
  1738. Note that the Evaluation Class calculation in Part I will not
  1739. necessarily be the same as the Minimum Part I Evaluation in Table
  1740. 9. This is because the Rmin for Part II may be different from
  1741. that of Part I since the Part II protections are oriented towards
  1742. outsiders (those with physical access) rather than towards users.
  1743. Depending on the particular environment, either the Part I requirement
  1744. or the Part II requirement may dominate. The latter would be the
  1745. case if a system were operated in the system high mode-where all
  1746. users were cleared to see the most sensitive information-but the
  1747. network was exposed to lower clearance individuals.
  1748. 5.4.3 Functionality
  1749.  
  1750.  
  1751.  
  1752. This section asks questions about each of the security servi'ces
  1753. contained in PartII  of the TNI. These questions are designed
  1754. to help the security manager identify the functionality required
  1755. for each security service. The questions should be answered in
  1756. sequence, unless the answer to one question contains an instruction
  1757. to skip ahead.
  1758.  
  1759.  
  1760. Authentication
  1761.  
  1762.  • 1. Is there a requirement to determine what individual, process
  1763. or device is at the other end of a network communication? If yes,
  1764. document this requirement.
  1765.  
  1766.  
  1767.  
  1768.  
  1769.  
  1770.  
  1771.  • Table 9
  1772.  • Part II Assurance Rating
  1773.  
  1774.  
  1775.  
  1776.  
  1777.  
  1778.  
  1779. PartII                                Minimum PartI                        
  1780.  
  1781. Assurance Rating                     Evaluation                            
  1782.  
  1783. Minimum                              CI                                    
  1784.  
  1785. Fair                                 C2                                    
  1786.  
  1787. Good                                 B2                                    
  1788.  
  1789.  
  1790.  
  1791.  
  1792.  
  1793.  
  1794.  
  1795.  
  1796.  
  1797. If no, skip to Communications Field Integrity.
  1798.  
  1799.  • 2. Do you have a requirement to identify and authenticate
  1800. the specific hardware device at the distant end-point involved
  1801. in the network communication?  If yes, then you have a functionality
  1802. requirement for authentication.  This functionality may be implemented
  1803. at one or more protocol layer. For example, a specific control
  1804. character, ENQ (enquiry or who-are-you) may be used to return
  1805. immediately a stored terminal identifier.
  1806.  • 3. Do you have a requirement to identify and authenticate
  1807. the location of the hardware at the distant end-point or in any
  1808. intermediate system involved in the network communication?
  1809.  • If yes, then you have a functionality requirement for authentication
  1810. at protocol layer 2, the Link Layer or layer 3, the Network Layer.
  1811.  • 4. Do you have a requirement to identify and authenticate
  1812. the specific operating system or control program at the distant
  1813. end-point or in any intermediate system involved in the network
  1814. communication?
  1815.  • If yes, then you have a functionality requirement for authentication
  1816. at protocol layer 4, the Transport Layer.
  1817.  • 5. Do you have a requirement to  identify and authenticate
  1818. the  subject (process/domain pair) at the distant end-point involved
  1819. in the network communication?
  1820.  • If yes, then you have a functionality requirement for authentication
  1821. at protocol layer 4 or above.
  1822.  
  1823.  
  1824.  
  1825.  
  1826.  
  1827.  
  1828.  • 6. Do you have a requirement to identify ad authenticate the
  1829. application or user at the distant end-point involved in the network
  1830. communication?  If yes, then you have a functionality requirement
  1831. for authentication above protocol layer 7, the Applications Layer.
  1832. The Applications Layer provides an interface to the application.
  1833. Authentication information may pass over this interface.  Authentication
  1834. of a user is addressed in Part I of the TNI.  Application process
  1835. authentication is outside the scope of the 05I Security Architecture,
  1836. but does fall within the scope of TNI PartII Security Services.
  1837.  Have you chosen to use some mechanism other than encryption to
  1838. provide authentication? If so, your strength of mechanism is shown
  1839. in Table 7.  If your authentication mechanism is encryption based,
  1840. see the appropriate encryption authority (e.g., NSA). Even if
  1841. encryption is used, some supporting processes may need to satisfy
  1842. the strength of mechanism shown in Table 7 (depending on the architecture).
  1843.  For example, a database that relates encryption keys to specific
  1844. users may need to be trusted.
  1845.  
  1846.  
  1847.  
  1848.  
  1849.  
  1850.  
  1851.  
  1852. Communications Field Integrity
  1853.  
  1854.  • 1. Do you have a requirement to protect communication against
  1855. unauthorized modification?  If no, skip to Non-Repudiation.
  1856.  • 2. Are your protection requirements the same for all parts
  1857. of the information communicated?
  1858.  • If no, then you should identify the separate parts and answer
  1859. the rest of the questions in this section separately for each
  1860. part. Each part is known as a field.
  1861.  • There are two major fields: protocol-information, whherein
  1862. the network is informed of the destination of the information
  1863. and any special services required; and user-rlata. Not every protocol
  1864. data unit (PDU) contains user-data, but protocol-information is
  1865. necessary.  Each of these fields may be divided into additional
  1866. fields; depending on your application, protection requirements
  1867. for fields may differ.
  1868.  
  1869.  
  1870.  
  1871.  
  1872.  
  1873.  
  1874.  • 3. Do you have a requirement for detecting unauthorized modification
  1875. to part or allofaPDU?
  1876.  • If yes, you have a requirement for at least minimum functionality.
  1877.  • 4. Do you have a requirement for detecting any of the following
  1878. forms of message stream modification: insertion, deletion, or
  1879. replay?
  1880.  • If yes, you have a requirement for at least fair functionality.
  1881. In addition, your functionality must be incorporated in a connection
  1882. oriented protocol.
  1883.  • 5. Do you require that, if message stream modification is
  1884. detected, recovery (correction) should be attempted?
  1885.  • If yes, you have a requirement for good functionality. In
  1886. addition, you must implement integrity in a reliable transport
  1887. (layer 4) mechanism.
  1888.  
  1889.  
  1890.  
  1891.  
  1892. Non-repudiation
  1893.  
  1894.  • 1. Do you have a requirement to be able to prove (to a third
  1895. party) that a specific message transfer actually occurred?  If
  1896. no, skip to Denial of Service.
  1897.  • 2. Do you have a requirement for proving that a specific message
  1898. was sent?
  1899.  • Specific message means that the identity of the subject sending
  1900. the message, the host computer and/or mail agent/server, time
  1901. and date, and contents are all uniquely and unalterably identified.
  1902.  • If yes, then you have a functionality requirement for non-repudiation
  1903. with proof of origin.
  1904.  • 3. Do you have a requirement for proving that a specific message
  1905. was received?
  1906.  • Specific message means that the identity of the subject to
  1907. which the message was delivered, the host computer and/or mail
  1908. agent/server, time and date, and contents are all uniquely and
  1909. unalterably identified.
  1910.  • If yes, then you have a functionality requirement for non-repudiation
  1911. with proof of delivery.
  1912.  
  1913.  
  1914.  
  1915.  
  1916.  
  1917.  
  1918.  
  1919. Denial of Service
  1920.  
  1921.  • 1. Do you have a requirement to assure the availability of
  1922. communications service or to determine when a Denial of Service
  1923. (DOS) condition exists? A DOS condition is defined to exist whenever
  1924. throughput falls below a pre~stablished threshold, or when access
  1925. to a remote entity is unavailable, or when resources are not available
  1926. to users on an equitable basis. For a DOS condition to occur,
  1927. the user must have priority to access the system or resources.
  1928.  If no, skip to Data Confidentiality.
  1929.  • 2. Do you have a requirement to detect conditions that would
  1930. degrade service below a pre-selected minimum and to report such
  1931. degradation to the network operators?
  1932.  • If yes, you have a requirement for at least minimum denial
  1933. of service functionality.
  1934.  • 3. Could failure of the system to operate for several minutes
  1935. lead to personal injury or large financial loss?
  1936.  • If yes, you have a requirement for at least fair denial of
  1937. service functionality.
  1938.  • 4. Do you have a requirement for service resiliency that would
  1939. continue-perhaps in a degraded or prioritized mode-in the event
  1940. of equipment failure and/or unauthorized actions?
  1941.  • If yes, you have a requirement for at least fair denial of
  1942. service functionality.
  1943.  • 5. Could failure of your system to operate for several minutes
  1944. lead to loss of life?
  1945.  • If yes, you have a requirement for good denial of service
  1946. functionality.
  1947.  • 6. Do you have a requirement for automatic adaptation upon
  1948. detection of a denial~fservice condition?
  1949.  • If yes, you have a requirement for good denial of service
  1950. functionality.
  1951.  
  1952.  
  1953.  
  1954.  
  1955.  
  1956.  
  1957.  
  1958. Protocol Based DOS Protection
  1959.  
  1960.  • 1. Do you want advanced knowledge of unavailability of service?
  1961.  
  1962.  • If no, skip to Network Management.
  1963.  • If yes, do you want to implement alternatives?
  1964.  
  1965.  
  1966.  
  1967.  
  1968.  
  1969.  
  1970. If yes, you should employ this alternative basis and skip to Network
  1971. Management.
  1972.  
  1973.  • 2. In general, ordinary protocol mechanisms don't provide
  1974. protection against malicious attacks or bizarre errors. Do you
  1975. have a requirement to detect a DOS condition which cannot be met
  1976. by the protocols used as part of normal communications?
  1977.  • If no, you do not have a functional requirement for protocol-based
  1978. DOS protection and should skip to Network Management.
  1979.  • 3. The TNI suggests the following protocol-based mechanisms:
  1980.  
  1981.  • a. Measure the transmission rate between peer entities under
  1982. conditions of input queuing, and compare the measured transmission
  1983. rate with a rate previously identified as the minimum acceptable;
  1984.  • b. Employ a request-response polling mechanism, such as "are-you-there"
  1985. and "here-I-am" messages, to verify that an open path
  1986. exists between peer entities.
  1987.  
  1988.  
  1989.  
  1990.  
  1991.  
  1992.  
  1993. If you have identified any additional mechanisms, include them
  1994. in your list of required mechanisms.
  1995.  
  1996.  
  1997. Network Management
  1998.  
  1999.  • 1. Do you have a requirement for (at least) detecting a denial
  2000. of service condition that affects more than a single instance
  2001. of communication  or attempted communication?
  2002.  • If no, skip to Data Confidentiality.
  2003.  • If yes, you have a functional requirement for network management
  2004. denial of service protection.
  2005.  
  2006.  
  2007.  
  2008.  
  2009.  
  2010.  
  2011.  
  2012. Data Confidentiality
  2013.  
  2014.  • 1. Do you have a requirement to protect any part of transmitted
  2015. data from disclosure to unauthorized persons?  If no, skip to
  2016. Traffic Flow Confidentiality.
  2017.  • 2. Is your requirement for confidentiality limited to selected
  2018. field of user~ata within a PDU?
  2019.  • If no, then you require confidentiality for the entire data
  2020. portion of each PDU.
  2021.  • Continue with Traffic Flow Confidentiality.
  2022.  • 3. Is there a reason to encrypt only selected fields (e.g.,
  2023. cost savings, legal requirements)?
  2024.  • If yes, you require selected field confidentiality.  If no,
  2025. you require full confidentiality on the data portion of each PDU.
  2026.  
  2027.  
  2028.  
  2029.  
  2030. Traffic Flow Confidentiality
  2031.  
  2032.  • 1. Do you have a requirement to prevent analysis of message
  2033. length, frequency, ad protocol components (such as addresses)
  2034. to prevent information disclosure through inference (traffic analysis)?
  2035.  • If no, skip to Selective Routing.
  2036.  • If yes, you have a functional requirement for traffic flow
  2037. confidentiality.
  2038.  
  2039.  
  2040.  
  2041.  
  2042. Selective Routing
  2043.  
  2044.  • 1. Do you have a requirement to choose or avoid specific networks,
  2045. links, relays, or other devices for any reason at any time?
  2046.  • If yes, you have a functional requirement for selective routing.
  2047.  
  2048.  
  2049.  
  2050.  
  2051.  
  2052. 6 Interconnecting AIS
  2053.  
  2054.  
  2055.  
  2056. The definition of Interconnected Accredited AIS recognizes that
  2057. parts of a network may be independently created, managed, and
  2058. accredited.  AIS in different security domains 13 generally operate
  2059. under different security policies, consequently, it is difficult
  2060. to combine them into a Unified Network. For example, AIS operated
  2061. by the U.S. DOD and NATO cannot be combined into a Unified Network,
  2062. since they enforce different policies and do not have a common
  2063. authority.
  2064.  
  2065.  
  2066. Interconnecting systems that support different security domains
  2067. (e.g., classified, sensitive unclassified) adds additional complexity.
  2068.  Exchange of information among these different security domains
  2069. requires identification of the markings and protection given to
  2070. information when transmitted to another domain.  For example,
  2071. several evolving approaches to the protection of sensitive unclassified
  2072. information [17] consider "that sensitive information is
  2073. not part of the same hierarchy as classified information".
  2074.  
  2075.  
  2076. There are technical criteria for judging the trustworthiness of
  2077. Interconnected Accredited AIS: an Interconnection Rule, which
  2078. ensures that information conveyed between subsystems is labeled
  2079. properly, and risk factors such as propagation of local risk and
  2080. the cascading problem. These criteria are examined in some detail
  2081. below.
  2082. 6.1 Agreement Between Accreditors
  2083.  
  2084.  
  2085.  
  2086. Interconnection of AIS between security domains requires a documented
  2087. agreement identifying the interconnection requirements and all
  2088. safeguards.  This agreement will have many similarities to the
  2089. MOA discussed in Section 3.2. It will probably have to reconcile
  2090. different security policies and philosophies of protection, identifying
  2091. the conditions under which specified classes of information can
  2092. be exchanged among domains. In addition to the information included
  2093. in> the MOA, this agreement between managers of different security
  2094. domains should address the mappings of policy and countermeasures
  2095. between the domains.  In many ways this agreement takes on the
  2096. character of an NSAD for the agreed upon information exchange
  2097. between domains.
  2098.  
  2099.  
  2100. ________________________
  2101.  
  2102.  
  2103. 13 A security domain is a collection of A[$ under the control
  2104. of a single administrator that en-forces or operates under a specified
  2105. policy. There can be sub-domains, (e.g., Army and Air Force are
  2106. sub-domains under the Department of Defense.)
  2107. 6.1.1 Accreditation Range
  2108.  
  2109.  
  2110.  
  2111. An accreditation designates a system's mode of operation and range
  2112. of data sensitivity' levels. The accreditation range reflects
  2113. the Accreditor's judgment on the subsystem's ability to exchange
  2114. information within an acceptable level of risk, with respect to
  2115. its network connections, and in accord with the designated sensitivity
  2116. levels.
  2117.  
  2118.  
  2119. The range must be a single level in the case of a system high
  2120. or dedicated device14.
  2121.  
  2122.  
  2123. If the accreditation range comprises more than a single level,
  2124. the system is trusted to reliably segregate data by level within
  2125. its accreditation range, and label it accurately for transmission
  2126. over multilevel interfaces. The accreditation range will be specified
  2127. in the MOA. The accreditation range is used in determining whether
  2128. communication between systems is permitted.
  2129.  
  2130.  • Figure 1
  2131.  • Information Levels and Accreditation Ranges
  2132.  
  2133.  
  2134.  
  2135.  
  2136.  
  2137. TS
  2138.  
  2139.  
  2140.  
  2141.                 S-C                                      
  2142. S
  2143.  
  2144.  
  2145.                                                          
  2146. C
  2147.  
  2148.  
  2149.                 C2             Evaluation Class          
  2150.  B3
  2151.  
  2152.  
  2153.                 S             Accreditation Range        
  2154. TS-C
  2155.  
  2156.  
  2157.                 SH             Operating Mode            
  2158. MLS
  2159.  
  2160.  
  2161. As shown in Figure 1, an AIS may contain information at levels
  2162. that are below its accreditation range.  For example, a C2 host
  2163. which contsuns Secret (S) and Confidential  information,
  2164. is not trusted to segregate this confidential and Secret information.
  2165. Therefore, it is accredited to operate in system high (SH) mode
  2166. at Secret (the highest sensitivity level of information on the
  2167. system), and its accreditation range is the single level Secret.
  2168. All exported information must be labeled with the system high
  2169. sensitivity label until there is a manual review to assign the
  2170. information a lower 14 Often in the discussion it is not appropriate
  2171. to distinguish between a component and a sub-system; in that case
  2172. we use the term device. 
  2173.  
  2174.  
  2175. classification level. In contrast, a B3 multilevel secure (MLS)
  2176. host, which contains Top Secret (TS), Secret, and Confidential
  2177. information could be assigned an accreditation range equal to
  2178. the entire set of levels processed. In this case, the label of
  2179. the exported data is equal to the actual level of the exported
  2180. data, unless unclassified data is to be exported.
  2181.  
  2182.  
  2183. Figure 2 illustrates the accreditation ranges of two interconnected
  2184. subsystems.
  2185.  
  2186.  
  2187. Although Subsystem Y is able to separate its three levels of information,
  2188. it may exchange information with Subsystem X only at the S and
  2189. C levels.
  2190.  
  2191.  • Figure 2
  2192.  • Accreditation Ranges of Two Interconnected Sub systems
  2193.  
  2194.  
  2195.  
  2196.  
  2197.  
  2198.  
  2199.  
  2200. Subsystem X                                      Subsystem
  2201. Y
  2202. TS
  2203.  
  2204.  
  2205.  
  2206.      S -------------------------------     S
  2207.  
  2208.  
  2209.      C -------------------------------            C
  2210.  
  2211.  
  2212.    Class B1           Class B3
  2213.  
  2214.  
  2215. In a network, an accreditation range bounds the sensitivity levels
  2216. of information that may be sent (exported) to or received (imported)
  2217. from each interconnected subsystem15. For example, if a network
  2218. consists of only dedicated and system high subsystems, each subsystem
  2219. will be assigned single-valued accreditation ranges (i.e., an
  2220. accreditation range consisting of one sensitivity level).
  2221.  
  2222.  
  2223. When the same communications channel processes information at;different
  2224. levels, the data must be labeled through some protocol agreed
  2225. upon by the communicating systems.
  2226.  
  2227.  
  2228. ______________
  2229.  
  2230.  
  2231. 15 Note that information exported or imported to a subsystem having
  2232. a single-level accredita-tion range is implicillylabeled at that
  2233. level. It is also possible for a subsystem with a mul-tilevel
  2234. accreditation range to employ network interface devices with single-level
  2235. ports, in which case the data transferred over such ports is also
  2236. implicitly labeled.
  2237.  
  2238.  
  2239. DODD 5200.28 Enclosure (5) also addresses AI5 that have not been
  2240. accredited:
  2241.  
  2242.  
  2243. Untrusted, unaccredited AIS ... may be components of a network....
  2244. Only unclassified information, which does not include sensitive
  2245. unclassified information, may be sent to ad from untrvsted, unaccredited
  2246. AIS.
  2247.  
  2248.  
  2249. This trvst requirement is satisfied by restricting the accreditation
  2250. rage of the untrusted, unaccredited AIS to Unclassified (U).
  2251. 6.1.2 Device Range
  2252.  
  2253.  
  2254.  
  2255. A network subsystem is typically connected to another subsystem
  2256. through some kind of 1/0 network interface or device (see Figures
  2257. 3~) ad the same device may provide connection to multiple subsystems.
  2258.  
  2259.  
  2260. Although a 1/0 device is part of a subsystem, it may be designated
  2261. to process a more restricted set of sensitivity levels than the
  2262. accreditation rage of the subsystem as a whole. This leads to
  2263. the concept of a device range. Each 1/0 device in a subsystem
  2264. that is used to communicate with other subsystems in the network
  2265. must have a device rage. The device rage may be single level,
  2266. or it may be a set of levels (in which case the device is referred
  2267. to as multilevel), and it must be included within the subsystem
  2268. accreditation range. The TCSEC states that "systems that
  2269. have been evaluated at classes B2 ad above must support minimum
  2270. ad maximum security labels for all multilevel 1/0 devices".
  2271. The purpose of device labels is to document the constraints placed
  2272. on the security levels of information authorized for the devices.
  2273.  
  2274.  
  2275. Each physically attached multilevel system (if any) has a minimum
  2276. ad maximum sensitivity level associated with it. A B1 or higher
  2277. system interconnected to a second system must ensure that both
  2278. imported and exported information is contained within appropriate
  2279. sensitivity levels.
  2280. 6.1.3 Information Transfer Restrictions
  2281.  
  2282.  
  2283.  
  2284. The following points summarize the discussion on the restrictions
  2285. imposed on information transfer between interconnected devices.
  2286.  
  2287.  
  2288. Information exported or imported using a single-level device is
  2289. labeled implicitly by the security level of the device. As shown
  2290. in Figure 3, any information transferred between the single-level
  2291. (S) devices on Subsystems X and Y is implicitly labeled S.
  2292.  
  2293.  • Figure 3
  2294.  • Implicit Labeling
  2295.  
  2296.  
  2297.  
  2298.  
  2299.  
  2300.  
  2301.  
  2302. Subsystem X                            Subsystem Y
  2303.  
  2304.  
  2305. Information exported from one multilevel device and imported at
  2306. another multilevel device must be labeled through an agreed-upon
  2307. protocol, unless it is labeled implicitly by using a communications
  2308. link that always carries a single level.  For instance, in Figure
  2309. 4, Secret and Confidential information may be transferred between
  2310. the multilevel devices.
  2311.  
  2312.  • Figure 4
  2313.  • Protocol Labeling
  2314.  
  2315.  
  2316.  
  2317.  
  2318.  
  2319.  
  2320.  
  2321. Subsystem X                           Subsystem Y
  2322.  
  2323.  • Figure5
  2324.  • Compatibility Labeling
  2325.  
  2326.  
  2327.  
  2328.  
  2329.  
  2330.  
  2331.  
  2332. Subsystem X                            Subsystem Y
  2333.  
  2334.  
  2335. Information exported at a given security level can be sent only
  2336. to a importing device whose device rage contains that level or
  2337. a higher level. In Figure 5, Subsystem X is allowed to export
  2338. only Secret information to Subsystem Y's multilevel device.  Subsystem
  2339. Y is allowed to export Secret ad Confidential information to Subsystem
  2340. X, because the device rage Subsystem X is TS-S.  If the importing
  2341. device rage dominates the exported level, the information is implicitly
  2342. or explicitly relabeled upon receipt at a higher level within
  2343. the importing device range.
  2344.  
  2345.  • Figure 6
  2346.  • Relabeling
  2347.  
  2348.  
  2349.  
  2350.  
  2351.  
  2352.  
  2353.  
  2354. Subsystem X                            Subsystem Y
  2355.  
  2356.  
  2357. In Figure 6, Subsystem Y relabels information imported from Subsystem
  2358. X. The information transfer restrictions also permit one-way communication
  2359. (i.e., no acknowledgments) from one device to aother whose rages
  2360. have no level in common, as long as each level in the sending
  2361. device rage is dominated by some level in the receiving device
  2362. rage. It is never permitted to send information at a given level
  2363. to a device whose rage does not contain a dominating level.
  2364.  
  2365.  
  2366. In most interconnected subsystems, the bidirectional flow of information
  2367. is permitted. In this environment, the sensitivity level of any
  2368. transmitted message must be within the accreditation range of
  2369. both the sending and receiving systems.  In some networks,  an
  2370. additional restriction on information flow may be unidirectional
  2371. communications. This restriction may enhance security.  The following
  2372. discussions refer to Figure 7.
  2373.  
  2374.  • Figure 7
  2375.  • Bidirectional and Unidirectional Information Flow
  2376.  
  2377.  
  2378.  
  2379.  
  2380.  
  2381.  
  2382.  
  2383.         Subsystem X                                      
  2384. Subsystem Y
  2385.  
  2386.  
  2387.               TS                     (C or U)            
  2388.       C
  2389. U
  2390.  
  2391.  
  2392.  
  2393.           SH (TS)                 Subsystem Z      
  2394.    MLS (C-U)
  2395.  
  2396.  
  2397.                                       TS
  2398.  
  2399.  
  2400.                                        S
  2401.  
  2402.  
  2403.                                        C
  2404.  
  2405.  
  2406.                                    MLS (TS-C)
  2407.  
  2408.  
  2409. The system high mode is usually assigned to AIS that are unevaluated
  2410. or are NCSC~valuated in class C. These AIS do not employ explicit
  2411. labels because they cannot be trusted to differentiate between
  2412. sensitivity levels. All information within these AIS is implicitly
  2413. labeled. When exported on a single level channel, by default the
  2414. information is labeled implicitly by the level of the channel.
  2415. Human-readable output must be labeled at the system high level;
  2416. it may be manually downgraded by an authorized reviewer.
  2417.  
  2418.  
  2419. Explicit labels are required on a multilevel channel. In order
  2420. to export explicit labels, Subsystem X would normally be expected
  2421. to be NCSC-evaluated at BI or above, or employ an 1/0 device,
  2422. such as those shown in Figure 6, NCSC~valuated at BI or above.
  2423. Also, Subsystem X or the 1/0 device should be used as specified
  2424. in Section 4 of this guideline. Lacking such NCSC~valuation, the
  2425. MOA between the Accreditors would have to specifically address
  2426. these labels.
  2427.  
  2428.  
  2429. Subsystem X can import a message from Subsystem Y, but cannot
  2430. acknowledge receipt of that message, because an exported acknowledgment
  2431. (labeled TS) cannot be imported by Subsystem Y, which can only
  2432. receive C or U information. Transmitting an acknowledgment from
  2433. Subsystem X to Subsystem Y would constitute a write-down (i.e.,
  2434. writing information at a lower sensitivity level-generally a security
  2435. violation.)
  2436.  
  2437.  
  2438. Subsystems Y and Z can exchange information at C since this level
  2439. is in the accreditation range of each subsystem. When only unidirectional
  2440. communication (no acknowledgment) is utilized between two subsystems,
  2441. write up is permitted if each sensitivity level in the source
  2442. subsystem is dominated by a sensitivity level in the destination
  2443. subsystem. The receiving subsystem must change the sensitivity
  2444. level of the message when the message is received. For instance,
  2445. U information sent from Subsystem Y will be labeled C by Subsystem
  2446. Z.
  2447. 6.2 Interconnection Rule
  2448.  
  2449.  
  2450.  
  2451. The Interconnection Rule states that each device in the network
  2452. must be separately accredited to operate in an approved security
  2453. mode of operation and with a specific accreditation range. The
  2454. device is accredited to participate in the network at those levels
  2455. and only those levels. This means that information exported at
  2456. a given sensitivity level can be sent only to an importing device
  2457. whose accreditation range contains that level or a higher level.
  2458. Information is relabeled, implicitly or explicitly, upon reception
  2459. at a higher level within the importing device accreditation range
  2460. only if the original level is not in that range.
  2461.  
  2462.  
  2463. According to the Interconnection Rule, a multilevel network may
  2464. contain devices with different operating modes: dedicated, system
  2465. high, partitioned, and multilevel.  Also the devices may differ
  2466. in the sensitivity levels and categories which they process, and
  2467. the formal access approvals of their users (some users may not
  2468. have access to all information).
  2469.  
  2470.  
  2471. Figure 7 illustrates the flexibility of the Interconnection Rule.
  2472. For example, the interconnection Rule will allow, with certain
  2473. restrictions, a multilevel subsystem to communicate with a single-level
  2474. subsystem and with another multilevel subsystem (and
  2475.  
  2476.  
  2477. the two MLS subsystems may have different accreditation ranges).
  2478. It also allows for one-way communication to a higher-level system.
  2479. It is intended to be a non-restricting rule and yet ensure that
  2480. each system receives only information that it can properly mark
  2481. and handle. Interconnection in the context of the Interconnection
  2482. Rule means only direct connections, that is, without any intermediate
  2483. accredited subsystem.
  2484.  
  2485.  
  2486. The Interconnection Rule alone does not guarantee that classified
  2487. information will not be exposed to greater risks in a network
  2488. than in a stand-alone environment. One problem in networks that
  2489. is dealt with at some length below is the cascading problem.
  2490.  
  2491.  • Figure 8
  2492.  • A Complex Interconnection
  2493.  
  2494.  
  2495.  
  2496.  
  2497.  
  2498.  
  2499.  
  2500. Subsystem X              Subsystem Y
  2501. 6.2.1 A Complex Example
  2502.  
  2503.  
  2504.  
  2505. The Interconnection Rule and device range allow for some rather
  2506. challenging situations. Consider, for example, the connection
  2507. depicted in Figure 8. The system on the left processes TS information
  2508. of two types: categories A and P (where P is the union of categories
  2509. C and D, P = C U D). The system on the right processes the categories
  2510. C and Q (where Q is the union of categories A and B, Q = A U B).
  2511. The two devices have no sensitivity levels in common. Yet this
  2512. is a legitimate connection as long as only TS ,A and TS ,C information
  2513. is transferred.  Any information sent must be relabeled upon receipt.
  2514. Information in category A is relabeled Q when received on the
  2515. right, ad information in category C is relabeled P when received
  2516. on the left 6.3 Risk Factors
  2517.  
  2518.  
  2519. There are two global considerations that affect the interconnection
  2520. of systems.
  2521.  
  2522.  
  2523. The first is called propagation of local risk and the second is
  2524. the cascading problem.  Before discussing these considerations,
  2525. the concepts of subsystem connection view and global network view
  2526. need to be introduced.
  2527.  
  2528.  
  2529. As discussed in the previous section, any subsystem that is connected
  2530. to other subsystems must enforce the Interconnection Rule. Using
  2531. the subsystem connection
  2532.  
  2533.  
  2534. view, each subsystem responsible for maintaining the separation
  2535. of multiple levels of information must decide locally whether
  2536. or not information can be sent or received.  This view, then,
  2537. does not require a subsystem to know the accreditation ranges
  2538. of all other subsystems on the network; only of those with which
  2539. it can communicate without an intermediary.
  2540.  
  2541.  
  2542. The Interconnection Rule applies to communication between any
  2543. two (or more) accredited systems. However, even when the Interconnection
  2544. Rule is followed, there may be other potential security problems
  2545. that will require the implementation of additional constraints
  2546. on the network. In order to address these problems, it is necessary
  2547. to adopt a global view of the network. This view requires a knowledge
  2548. of the accreditation ranges of all the subsystems in the network.
  2549. That is, it is no longer determinable locally whether or not a
  2550. constraint is being satisfied. These accreditation ranges are
  2551. taken into account when determining whether or not a subsystem
  2552. should be allowed to connect to the network. In this way, the
  2553. potential damage that can occur when information is compromised
  2554. or modified can be limited to an acceptable level.
  2555.  
  2556.  
  2557. Two global concerns are discussed below. One concern is the propagation
  2558. of local risk; the other is the cascading problem.
  2559. 6.3.1 Propagation of Local Risk
  2560.  
  2561.  
  2562.  
  2563. The term Propagation of Local Risk comes from the notion of jeopardizing
  2564. the security of a system as a result of weaknesses in other systems
  2565. to which it may be connected. Table 3 in Section 4 recommends
  2566. minimum classes of trusted systems for specific environments.
  2567. Unfortunately, in many cases, operational needs have led to the
  2568. accreditation of systems for multilevel operation that would not
  2569. meet the requirements of the recommended class. While this increased
  2570. risk may be accepted by the Accreditor of a particular system,
  2571. connection of such a system to a network exposes users of all
  2572. other subsystems in the network to the additional risk. Consequently,
  2573. when an unevaluated system, or one that does not meet the class
  2574. recommended for its accreditation, is proposed for connection
  2575. to a network, constraints should be considered,  such  as  one-way
  2576.  connections,  manual  review  of  transmissions, cryptographic
  2577. isolation, or other measures to limit the risk it introduces.
  2578.  
  2579.  
  2580. In the special case of a common user network such as DDN, it may
  2581. be necessary to provide communications capabilities among systems
  2582. that do not conform to the security requirements established by
  2583. the network Accreditor (i.e., a system meeting no security requirements
  2584. may be connected to a network.) One common way to provide network
  2585. service to these non~onforming systems while still protecting
  2586. the other, conforming, systems would be to segregate the non-conforming
  2587. systems into closed communities that could not directly communicate
  2588. with conforming systems.  This approach is discussed in detail
  2589. in the Defense Data Network Security Architecture [18].
  2590. 6.3.2 The Cascading Problem
  2591.  
  2592.  
  2593.  
  2594. One of the problems that the Interconnection Rule does not address
  2595. is the cascading problem, discussed in Appendix C of the INI.
  2596. The cascading problem exists when an attacker can take advantage
  2597. of network connections to reduce the nominal system resistance
  2598. against leaking information across a range of sensitivity levels.
  2599. Most multilevel systems, evaluated or not, are vulnerable to some
  2600. risk that information can be leaked from a higher to a lower level
  2601. supported on the system. The accreditation range of a subsystem
  2602. represents a judgment that the risk is acceptable for that range
  2603. of classifications.  The size of the range is one indication of
  2604. the attractiveness of the system as a target, so larger ranges
  2605. call for more care in system design and management. In particular,
  2606. Section 4 of this guideline discusses computation of a risk index
  2607. calculation based on the accreditation range, and recommends a
  2608. minimum evaluation class for a given risk index.
  2609.  
  2610.  
  2611. The cascading problem results from the observation that subsystems
  2612. may be connected in such a way that the network covers a larger
  2613. sensitivity level range than the individual systems are accredited
  2614. to handle. Depending on the actual topology of the interconnection
  2615. and the characteristics of the installations, the arnount of effort
  2616. required for an attacker to take advantage of residual vnlnerabilities
  2617. may be less than what is required for the network sensitivity
  2618. range.
  2619.  
  2620.  
  2621. To see how this is possible, consider two systems, each of which
  2622. is accredited to handle two adjacent classifications of information,
  2623. as shown in Figure 9. Subsystem A processes Secret and Top Secret
  2624. information, and all users are cleared to at least the Secret
  2625. level. Subsystem B processes Confidential and Secret information,
  2626. and all users are cleared to at least the Confidential level.
  2627.  
  2628.  
  2629. The network as a whole has three levels of information. However,
  2630. the leakage resistance of the network is only that offered by
  2631. two systems qualified for only two levels. To make Top Secret
  2632. information available to Confidential users, an attacker might
  2633. attempt to:
  2634.  
  2635.  • 1. Install a Trojan horse in Subsystem A to leak some Top
  2636. Secret information to Secret
  2637.  • 2. Send that information across the network link to Subsystem
  2638. B
  2639.  • 3. Install a Trojan horse in Subsystem B to leak the original
  2640. Top Secret information, now labeled Secret, to Confidential.
  2641.  
  2642.  
  2643.  
  2644.  
  2645. The path from Top Secret in Subsystem A to Confidential in Subsystem
  2646. B is referred to as a cascading path, with three steps. Step 1
  2647. is from TS to S in Subsystem A, Step 2 is the network link, and
  2648. Step 3 is from S to C in Subsystem B. Steps (1) and (3), the downgrading
  2649. steps, offer resistance commensurate with strictly smaller ranges.
  2650.  Step (2), the network link, offers no additional resistance,
  2651. given that the two Trojan horses have been written and installed.
  2652.  
  2653.  • Figure 9
  2654.  • Cascading Problem
  2655.  
  2656.  
  2657.  
  2658.  
  2659.  
  2660. Subsystem A
  2661.  
  2662.  
  2663.  
  2664.                       TS                          Subsystem
  2665. B
  2666.  
  2667.  
  2668.                        S                              S
  2669.  
  2670.  
  2671.                                                       C
  2672.  
  2673.  
  2674. The question is, whether subverting two systems qualified for
  2675. two levels of information is as hard as defeating one system qualified
  2676. for three levels of information.  In some cases it might be. 
  2677. Lee [19] gives an argument that if two systems have probabilistically
  2678. independent flaw sources, "...the resistance to threat of
  2679. a cascade of two B2 systems is approximately the same as, or even
  2680. better than, that of a B3 system."
  2681.  
  2682.  
  2683. But Lee also remarks that demonstrating effective independence
  2684. of flaw sources m a practical case is not easy, and that two systems
  2685. may have the same or equivalent flaws, particularly if their TCBs
  2686. are the same, or are separate implementations of a single flawed
  2687. design. Exploitation of the flaws on two or more systems does
  2688. present additional resistance to the attacker, but it should be
  2689. kept in mind that physical access to all interconnected systems
  2690. is not necessary to send untrusted software to them, as our experience
  2691. with viruses shows unmistakably.
  2692. 6.3.2.1 Tests for Cascading. 
  2693.  
  2694.  
  2695.  
  2696. For a relatively large and complex interconnection of systems,
  2697. it might not be obvious whether a cascading problem exists. Appendix
  2698. C of the TNI includes three approaches, with different degrees
  2699. of complexity and precision, for recognizing a potential cascading
  2700. problem. These range from a simple test that is rather pessimistic,
  2701. called the nesting condition, to a complex procedure. Appendix
  2702. A of this TNIEG reviews the nesting condition, and presents additional
  2703. information concerning tests for the cascading problem.
  2704.  
  2705.  • Whichever test for cascading is employed, its result is to
  2706. focus attention on certain subsystems and their network connections
  2707. that might potentially be subject to a cascading threat.  The
  2708. next step is to determine whether the systems involved are actually
  2709. vulnerable to the multiple coordinated attack that is necessary
  2710. for cascading, ad, if so, to consider countermeasures.
  2711.  
  2712.  
  2713. 6.3.2.2 Solutions.  
  2714.  
  2715.  
  2716.  • There are several ways to tackle a cascading problem. Since
  2717. cascading depends on cooperative action by malicious software
  2718. on the participating subsystems, one approach is to institute
  2719. configuration controls to prevent installation of unscrvtinized
  2720. software, or perhaps isolating it from network usage.
  2721.  • Another solution is to use a more trusted subsystem at appropriate
  2722. nodes in the network, so that an attacker will be forced to overcome
  2723. a protection mechanism commensurate with the seriousness of the
  2724. potential compromise. In Figure 9, for example, if either subsystem
  2725. A or subsystem B is NCSC-evaluated at class B3, which is sufficient
  2726. according to Table 3 in Section 4 of this guideline for a rangd
  2727. of Top Secret to Confidential, then the attacker is presented
  2728. with an acceptable level of difficulty.
  2729.  
  2730.  
  2731.  
  2732.  
  2733. A cascading threat can also be interdicted by eliminating certain
  2734. network connections, to break paths by which an attacker could
  2735. compromise information with insufficient resistance. This solution
  2736. is practical only when the links to be eliminated are not needed
  2737. for operational reasons. Sometimes end-to-end encryption can be
  2738. used to address a cascading threat while preserving necessary
  2739. connectivity, by reducing the level of information available to
  2740. intermediate systems on a communication path.
  2741. APPENDIX A
  2742.  
  2743. Tests for the Cascading Problem
  2744.  
  2745.  
  2746.  
  2747. The cascading problem was discussed in Section 6. This appendix
  2748. reviews the approaches presented in Appendix C of the TNI for
  2749. testing whether a cascading problem exists in an interconnection
  2750. of accredited subsystems. Three criteria are given there: the
  2751. nesting condition, the cascade condition, and a heuristic procedure.
  2752. The nesting condition is a simple but pessimistic test that can,
  2753. in some cases, dismiss the possibility of a cascading problem.
  2754. When it fails, there is not necessarily a cascading problem; other,
  2755. more accurate, tests should then be applied to confirm and locate
  2756. it.  This appendix first summarizes the nesting condition, and
  2757. then discusses other approaches  briefly.  A  forthcoming  report
  2758.  will  provide  further  guidance  on computational approaches
  2759. for the cascading problem.
  2760. A.l Nesting Condition
  2761.  
  2762.  
  2763.  
  2764. The nesting condition is evaluated solely on the basis of the
  2765. accreditation ranges of the subsystems. In the form given both
  2766. here and in the TNI, it is applicable only when all sensitivity
  2767. levels are totally ordered - that is, if they can be placed in
  2768. order such that each one is higher than the one before it. This
  2769. is true, in particular, if they are pure classifications, with
  2770. no categories or compartments.
  2771.  
  2772.  
  2773. The nesting condition is satisfied, by definition, if the accreditation
  2774. ranges of each pair of subsystems are either disjoint or nested.
  2775. A pair of accreditation ranges is disjoint if they have no levels
  2776. in common. They are nested if one range is included (as a subset)
  2777. in the other. All possible pairs (not just those of adjacent subsystems)
  2778. must be considered, but some pairs may be nested while others
  2779. are disjoint.
  2780.  
  2781.  
  2782. If the nesting condition is satisfied, there is no cascading problem.
  2783. Because the nesting condition does not take into account which
  2784. network subsystems are actually connected to one another, it can
  2785. sometimes give a pessimistic result, i.e., there are cases when
  2786. the nesting condition fails, but there is actually no cascading
  2787. problem.
  2788.  
  2789.  • Figure A-I
  2790.  • Accreditation Ranges of Two Interconnected Sub systems
  2791.  
  2792.  
  2793.  
  2794.  
  2795.  
  2796. Subsystem Y
  2797.  
  2798. Class B1
  2799.  
  2800.  
  2801.  
  2802. Example 1:  Consider the situation illustrated in Figure A-I.
  2803. The accreditation range of Subsystem X is nested within that of
  2804. Subsystem Y (i.e., C-S is completely contained within C-TS). Therefore,
  2805. the nesting condition is satisfied, and there is no cascading
  2806. problem.
  2807.  
  2808.  • Figure A-2
  2809.  • Cascading Problem
  2810.  
  2811.  
  2812.  
  2813.  
  2814.  
  2815. Subsystem A
  2816.  
  2817.  
  2818.  
  2819.                       TS                          Subsystem
  2820. B
  2821.  
  2822.  
  2823.                        S                              S
  2824.  
  2825.  
  2826.                                                       C
  2827.  
  2828.  
  2829. Example 2: Consider the situation illustrated in Figure A-2. The
  2830. accreditation ranges of Subsystem A and Subsystem B are not disjoint;
  2831. neither is one completely contained within the other. Therefore,
  2832. the nesting condition fails, ad a cascading problem is possible.
  2833. Note, however, that the nesting condition would still fail even
  2834. if the two subsystems were not connected to one another, yet in
  2835. that case there would be no cascading problem.
  2836.  
  2837.  
  2838. The situation is more complex when sensitivity levels are drawn
  2839. from a partially ordered set, so that the accreditation ranges
  2840. of some subsystems have sensitivity levels that are incomparable.
  2841. Two sensitivity levels are incomparable when neither is greater
  2842. than or equal to the other.  Sensitivity levels with category
  2843. sets are, in general, incomparable. An extended form of the nesting
  2844. condition has been devised that applies to partially ordered sensitivity
  2845. level sets . [20] A.2  Other Approaches Appendix C of the TNI
  2846. contains two other criteria for the cascading problem: the cascade
  2847. condition, which is a mathematical characterization of the problem,
  2848. and a heuristic procedure. These criteria have been superseded
  2849. by improved methods since the publication of the TNI. The new
  2850. approach is described in a separate report, in order to give adequate
  2851. scope to the presentation of background and context necessary
  2852. to apply it appropriately.
  2853.  
  2854.  
  2855. The need for a new approach arose from a recognition of the limitations
  2856. of the existing criteria.  The cascade condition is accurate but
  2857. it is not, in itself, a computational procedure. It is limited
  2858. by its assumption that all of the interconnected subsystems have
  2859. been given evaluation classes. The heuristic procedure is believed
  2860. to provide a conservative approximate test for cascading, but
  2861. only when applied to interconnections in which all communication
  2862. paths are two-way, i.e., capable of both sending and receiving.
  2863. A simpler procedure is now available.
  2864. APPENDIX B
  2865.  
  2866. Background References
  2867.  
  2868.  
  2869.  
  2870. Neither the TNI nor this TNIEG contain tutorial information on
  2871. security and networking; it is assumed that the reader will have
  2872. some background in both areas.  There is considerable literature
  2873. available. Following are some references that provide background
  2874. and related information concerning security in networks:
  2875.  
  2876.  • 1 M. D. Abrams and H. J. Podell, Computer and Network Security,
  2877. a Tutorial, IEEE Computer Society Press 1987.
  2878.  • 2 D. W. Davies and W. L. Price, Security for Computer Networks,
  2879. John Wiley & Sons 1984.
  2880.  • 3 D. E. Denning, Cryptography and Data Security, Addison-Wesley
  2881. 1983.
  2882.  • 4 M. Gasser, Building a Secure Computer System, Van Nostrand
  2883. Reinhold Company 1988.
  2884.  • 5 International Standards Organization, Information Processing
  2885. Systems - Open System Interconnection - Basic Reference Model,
  2886. 15 October 1984. International Standard 7498.
  2887.  • Part 2: Security Architecture, February 1989.1507498-2-1988(E).
  2888.  • 6 Charles P. Pfleeger, Security in Computing, Prentice-Hall
  2889. 1989.
  2890.  • 7 Andrew S. Tanenbaurn, Computer Networks, Second Edition,
  2891. Prentice-Hall 1988.
  2892.  
  2893.  
  2894.  
  2895.  
  2896.  
  2897. APPENDIX C
  2898.  
  2899. Encryption
  2900.  
  2901.  
  2902.  
  2903. May networks today use or plan to use encryption as a fundamental
  2904. mechanism for providing security services. The encryption devices
  2905. provide a security perimeter at the protocol layer at which they
  2906. provide service (typically the Network or Transport Layer). This
  2907. section presents some information on how an encryption system
  2908. can be part of the NSAD. It discusses MAC and DAC, use of encryption
  2909. to reduce the number of AIS, and the risk index of the encryption
  2910. system.
  2911. C.1 Use of Encryption
  2912.  
  2913.  
  2914.  
  2915. As indicated in the TNI, an encryption mechanism is evaluated
  2916. differently than other mechanisms. Evaluating encryption mechanisms
  2917. has a long history predating the TNI.  Evaluation of an encryption
  2918. mechanism is part of COMSEC.  Generally, encryption mechanisms
  2919. receive a rating of the highest level of classified information
  2920. which may be protected using that mechanism. Therefore, the only
  2921. rating applicable to an encryption mechanism is the classification
  2922. level of the information that is to be protected. This classification
  2923. level also establishes the requirement.
  2924.  
  2925.  
  2926. In general, organizations using the TNI and this document select
  2927. their encryption mechanisms from a list provided by an organization
  2928. which is responsible for evaluating such mechanisms. In many cases,
  2929. that organization is the NSA.
  2930.  
  2931.  
  2932. A more complicated situation exists when encryption is employed
  2933. above the Link Protocol Layer, layer 2. At layers 3 and 4 the
  2934. protocols are concerned with the end systems or intermediate devices
  2935. (e.g., hosts, network switches) that the links connect.  Higher
  2936. layers are concerned with other peer entities. Traditionally,
  2937. encryption applied above layer 2 has been termed end-to-end encryption,
  2938. or E3.
  2939.  
  2940.  
  2941. An E3 system may be provided as (part of) an NTCB. When the E3
  2942. system is integral to the NTCB, the use of the E3 system requires
  2943. evaluation under the TCSEC with interpretations in the TNI. The
  2944. evaluation must consider (1) the accreditation rage of the user
  2945. interface, (2) the risk index for the bypass in the E3 device,
  2946. and (3) the risk index between the highest sensitivity data ad
  2947. the lowest clearance of user on the network.
  2948.  
  2949.  
  2950. Depending on the design, devices of an E3system may satisfy all
  2951. requirements for a system evaluated under PartI of the TNI. MAC
  2952. may be provided either explicitly or implicitly. Explicit MAC
  2953. is provided if the packets sent by the encryption device include
  2954. a security label. Implicit MAC is provided if the security level
  2955. must be inferred from the encryption key used to protect the data.
  2956. All data protected by that key must be classified at a single
  2957. security level.
  2958.  
  2959.  
  2960. DAC is often provided in an E3 system as well. Typically, keys
  2961. for exchanging data are provided to the E3 devices only after
  2962. DAC has been applied. The encryption devices can provide identification
  2963. ad authentication. While identification is generally done explicitly
  2964. (by transmitting an identifier), authentication can be done implicitly
  2965. (i.e., by the use of a unique key). The encryption devices may
  2966. perform certain types of auditing as well. Typically, a device
  2967. collects information and forwards it to another device for storage.
  2968.  Information collected may include: connections established, connections
  2969. refused, packets with inappropriate labels, ad misrouted packets.
  2970. The granularity provided by these E3 mechanisms is determined
  2971. by the protocol layer at which the service is offered.
  2972.  
  2973.  • Figure C-1
  2974.  • Typical Interconnected AIS
  2975.  
  2976.  
  2977.  
  2978.  
  2979.  
  2980.  
  2981.  
  2982. AIS 1       AIS 2       AIS 3     AIS 4      AIS 5      AIS 6
  2983.       AIS 7
  2984.  
  2985.  
  2986. In a typical network there will be a number of AIS. For example,
  2987. two hosts are often attached to separate local networks connected
  2988. by a wide area network (WAN).  As shown in Figure C-1, the path
  2989. between the hosts (without E3) may involve 7 separate interconnected
  2990. AIS.
  2991.  
  2992.  
  2993. TNI Environments Guideline                                   
  2994.       Encryption
  2995.  
  2996.  
  2997. E3 can help reduce the number of AIS. By placing E3 devices between
  2998. each host and the LAN to which it is connected ad incorporating
  2999. suitable key distribution components, the LANs and WAN collapse
  3000. into a single network system and the path now traverses only three
  3001. AIS, as shown in Figure C-2.  AIS 2 provides security services
  3002. to the hosts, therefore, it may be part of the NTCB.
  3003.  
  3004.  • Figure C-2
  3005.  • Using End-to-End Encryption to Reduce Number of AIS
  3006.  
  3007.  
  3008.  
  3009.  
  3010.  
  3011.  
  3012.  
  3013. AIS1                               AIS 2                     
  3014.       AIS 3
  3015.  
  3016.  
  3017. There may be a hierarchy of trusted system views. For example,
  3018. E3 may be provided at protocol layers 3,4, and 7. Depending on
  3019. the architecture, the layers of E3 could constitute a single NTCB
  3020. or each could be a separate NTCB. In the latter case, the devices
  3021. supporting different layers would be part of different AIS and
  3022. the interconnection rules would be applied between higher and
  3023. lower protocol layers.
  3024.  
  3025.  
  3026. In general, an AIS at a higher protocol layer encompasses more
  3027. devices than one at a lower protocol layer. The granularity of
  3028. services offered is also finer at the higher protocol layer.
  3029.  
  3030.  
  3031. In a situation where the higher protocol layer encryption system
  3032. also has a higher evaluation class, the lower protocol layers
  3033. might be considered less trusted just as current E3 designs treat
  3034. the subnetwork as untrusted. Continuing the analogy, just as certain
  3035. physical security requirements are imposed on the untrusted suLbnetwork,
  3036. the higher protocol layer encryption might rely on characteristics
  3037. of the lower protocol layers.
  3038.  
  3039.  
  3040. However, one may be faced with a dilemma that the higherprotocollayer
  3041. E3 system has a lower security evaluation than the lower-protocol-layer
  3042. trusted system.
  3043.  
  3044.  
  3045. For example, a WAN with E3 at layer 3 might be evaluated Al. The
  3046. system might also provide E3 at layer 4, but an NTCB that includes
  3047. layer 4 might. only be rated B2. In this case, treating the subsystems
  3048. constituting the separate layers as separate AIS and using the
  3049. Interconnection Rule to accredit the network as a whole could
  3050. prove advantageous, as illustrated in Figure C-3.
  3051.  
  3052.  • Figure C-3
  3053.  • Separate Layers Treated as Separate AIS
  3054.  
  3055.  
  3056.  
  3057.  
  3058.  
  3059.  
  3060.  
  3061.                         B2   B2
  3062.  
  3063.  
  3064.         (N-C)                (N-C)
  3065. 0SI Layer 3 Network
  3066.  
  3067.  
  3068.  
  3069.    B2   B2
  3070.  
  3071.  
  3072.                       (S-TS)                    (S-TS)
  3073. C.2 Encryption Mechanisms
  3074.  
  3075.  
  3076.  
  3077. In a trvsted AIS, the recommended evaluation class is determined
  3078. using a risk index based on the highest data classification and
  3079. the lowest user clearance. In considering an E3 subsystem in a
  3080. network, three separate indexes must be considered [21]:
  3081.  
  3082.  • 1. The subscriber's range of sensitivity levels.  The cleartext
  3083. side of the encryption subsystem must be sufficiently trusted
  3084. to maintain separation among the cleartext data streams sent and
  3085. received by the subscriber attached to the encryption subsystem.
  3086. A risk index is based on the highest and lowest sensitivity levels
  3087. sent or received by the subscriber through this encryption subsystem.
  3088.  
  3089.  
  3090.  
  3091.  
  3092.  
  3093.  
  3094.  
  3095. 2. The bypass. In an E3 system, protocol control information must
  3096. be sent around the encryption unit through a bypass. The software
  3097. and hardware to mimplement the bypass must be trusted not to send
  3098. user data through the bypass. A risk index can be computed based
  3099. on the difference between the sensitivity level of the cleartext
  3100. information and the sensitivity level of the untrusted subsystems
  3101. of the network.
  3102.  
  3103.  • 3. The range of sensitivity levels across the network. This
  3104. risk index is concerned with the difference between the highest
  3105. level of information on any host attached to the network and the
  3106. lowest clearance of a user that could potentially get access to
  3107. that information. Depending on the characteristics of the network,
  3108. this risk index could be larger than either
  3109.  
  3110.  
  3111.  
  3112.  
  3113.  
  3114.  
  3115.  • 1. or 2. above. The worst case scenario occurs when some users
  3116. have lower clearances than the level at which the network backbone
  3117. is physically protected. For example, there are currently plans
  3118. to allow some uncleared users on the DISNET segment of the DDN
  3119. [22] which will be physically protected at the Secret level. In
  3120. that case, the risk index for the bypass works the opposite of
  3121. the normal case:  the ciphertext side will be the higher of the
  3122. two ratings.
  3123.  • The subsystem which performs access control and key distribution
  3124. must
  3125.  
  3126.  
  3127.  
  3128.  
  3129. also be concerned with this risk range since improper key distribution
  3130. could lead to compromise across the entire network. An erroneous
  3131. distribution could potentially permit the lowest cleared user
  3132. to access the highest classification of information.
  3133. LIST OF REFERENCES
  3134.  
  3135.  
  3136.  • 1. Department  of Defense  Computer  Security  Center,  Computer
  3137.  Security Requirements - Guidance for Applying the Department
  3138. of Defense Trusted Computer System Evaluation Criteria in Specific
  3139. Environments, 25 June 1985. CSC-STD~03-85
  3140.  • 2. Department of Defense, Department of Defense Trusted Computer
  3141. System Evaluation Criteria, 15 August 1983. Department of Defense
  3142. 5200.28-STD
  3143.  • 3. National Computer Security Center, Trusted Network Interpretation
  3144. of the Trusted Computer System Evaluation Criteria, Version 1,
  3145. July 1987. NCSC-TG-
  3146.  • 005
  3147.  • 4. Department of Defense, Security Requirements for Automative
  3148. Data Processing (ADP) Systems, March 1988. Department of Defense
  3149. Directive 5200.28
  3150.  • 5. National Computer Security Center, Trusted Product Evaluation,
  3151. A Guide for Vendors, draft 1 March 1988 (or most recent edition).
  3152. NCSCTG~02, Version-
  3153.  • 6. National Security Agency, Information Security Products
  3154. and Services Catalogue, (quarterly updates).
  3155.  • 7. National Institute of Standards and Technology, United
  3156. States Department of Commerce, Guideline for Computer Security
  3157. Certification and Accreditation, 27
  3158.  • September 1983. FIPS PUB 102
  3159.  • 8. V. A. Ashby, Thomas Gregg, and Annabelle Lee, "Security
  3160. Approach for Rapid Prototyping in Multilevel Secure Systems,"
  3161. Fifth Annual Computer Security Applications Conference, December
  3162. 1989.
  3163.  • 9. International Standards Organization, Information processing
  3164. systems - Open Systems  Interconnection  -  Basic  Reference 
  3165. Model,  15  October  1984.
  3166.  • International Standard 7498
  3167.  • 10. Defense Intelligence Agency, Security Manual for the Uniform
  3168. Protection of Intelligence Processed in Automated Information
  3169. Systems and Networks (U), Supplement to Director of Central Intelligence
  3170. Directive (DCID) 1/16 (U), SECRET, 19 July 1988.
  3171.  • 11. National Institute of Standards and Technology, United
  3172. States Department of Commerce, Guideline for Automatic Data Processing
  3173. Risk Analysis, August
  3174.  • 1979. FIPS PUB 65
  3175.  • 12. T. E. Bell, "Managing Murphy's Law: Engineering a
  3176. Minimum-Risk System," IEEE Specrtum, pp. 2i27, June 1989.
  3177.  • 13. National Computer Security Center, Proceedings of the
  3178. 1988 Computer Security Risk Management Model Builders Workshop,
  3179. Fort Meade, MD, May 1988.
  3180.  • 14. Sammy Migues, "A Guide to Effective Risk Management,"
  3181. Third Aerospace Computer Security Conference Proceedings, December
  3182. 1987.
  3183.  • 15. Carl E. Laudwehr and H.O. Lubbes, An Approach to Determining
  3184. Computer Security Requirements for Navy Systems, 13 May 1987.
  3185.  • 16. International Standards Organization, Information Processing
  3186. Systems - Open Systems Interconnection - Basic Reference Model
  3187. - Part 2:  Security Architecture, October 1988. International
  3188. Standard 7498-2-1988(E)
  3189.  • 17. Ingrid M. Olson, Eugene F. Troy, Milan S. Kuchta, and
  3190. Brian W. McKenney, "Disclosure Protection of Sensitive Information,"
  3191. 13th National Computer Security Conference Proceedings, 1A October
  3192. 1990.
  3193.  • 18. Robert W. Shirey, "Defense Data Network Security
  3194. Architecture," Computer Communication Review, April 1990.
  3195.  • 19. T. M. P. Lee, "Statistical Models of Trvst:  TCB's
  3196. vs. People," IEEE Symposium on Security and Privacy, 1989.
  3197.  • 20. Jonathan K. Millen and Martin W. Schwartz, "The Cascading
  3198. Problem for Interconnected Networks," Fourth Aerospace Computer
  3199. Security Applications Conference Proceedings, December 1988.
  3200.  • 21. R. W. Shirey and S.I. Schaen, "ARCHWAY Program Preliminary
  3201. Planning," MTR~7W00093~2, The MITRE Corporation, December
  3202. 1987. Not currently in the public domain.
  3203.  • 22. G.  R.  Mundy  and  R.  W.  Shirey,  "Defense  Data
  3204.  Network  Security Architecture," MILCOM `87 Proceedings,
  3205. 21 October 1987.
  3206.  
  3207.  
  3208.  
  3209.  
  3210.  
  3211. ACRONYMS
  3212.  
  3213.  
  3214.  
  3215. ADP Automatic Data Processing
  3216.  
  3217.  
  3218. AIS  Automated Information System
  3219.  
  3220.  
  3221. ASD  Assistant Secretary of Defense
  3222.  
  3223.  
  3224. AUTODIN  Automated Digital Network
  3225.  
  3226.  
  3227. BI   Background Investigation
  3228.  
  3229.  
  3230. C    Confidential
  3231.  
  3232.  
  3233. C&A  Certification and Accreditation
  3234.  
  3235.  
  3236. COMPUSEC  Computer Security
  3237.  
  3238.  
  3239. COMSEC Communications Security
  3240.  
  3241.  
  3242. COTS Commercial~ffThe-Shelf
  3243.  
  3244.  
  3245. CPU  Central Processing Unit
  3246.  
  3247.  
  3248. CBS  Central Security Service
  3249.  
  3250.  
  3251. CI   Command, Control, Communications, and Intelligence
  3252.  
  3253.  
  3254. CSSI Computer Security Subsystem Interpretation
  3255.  
  3256.  
  3257. DAA Designated Approving Authority
  3258.  
  3259.  
  3260. DAC Discretionary Access Control
  3261.  
  3262.  
  3263. DCA Defense Communications Agency
  3264.  
  3265.  
  3266. DDN Defense Data Network
  3267.  
  3268.  
  3269. DIA Defense Intelligence Agency
  3270.  
  3271.  
  3272. DISNET  Defense Integrated Secure Network
  3273.  
  3274.  
  3275. DOD Department of Defense
  3276.  
  3277.  
  3278. DODD  Department of Defense Directive
  3279.  
  3280.  
  3281. DOS Denial of Service
  3282.  
  3283.  
  3284. E3  End-to~nd Encryption
  3285.  
  3286.  
  3287. ENQ Enquiry
  3288.  
  3289.  
  3290. EPL Evaluated Products List
  3291.  
  3292.  
  3293. FIPS PUB Federal Information Processing Standards Publication
  3294.  
  3295.  
  3296. GOSIP  Government 05I Profile
  3297.  
  3298.  
  3299. I&A  Identification and Authentication
  3300.  
  3301.  
  3302. INFO SEC   Information Security
  3303.  
  3304.  
  3305. IPC  Inter-Process Communication
  3306.  
  3307.  
  3308. 150  International Standards Organization
  3309.  
  3310.  
  3311. 1550 Information System Security Officer
  3312.  
  3313.  
  3314. JCS Joint Chiefs of Staff
  3315.  
  3316.  
  3317. LAN Local Area Network
  3318.  
  3319.  
  3320. MAC Mandatory Access Control
  3321.  
  3322.  
  3323. MLS Multilevel Secure
  3324.  
  3325.  
  3326. MOA Memorandum of Agreement
  3327.  
  3328.  
  3329. MOR Memorandum of Record
  3330.  
  3331.  
  3332. N Not Classified but Sensitive
  3333.  
  3334.  
  3335. NACS National Communications Security Instruction
  3336.  
  3337.  
  3338. NCSC National Computer Security Center
  3339.  
  3340.  
  3341. NDI  Non-Development Item
  3342.  
  3343.  
  3344. NIU  Network Interface Unit
  3345.  
  3346.  
  3347. NSA  National Security Agency
  3348.  
  3349.  
  3350. NSAD Network Security Architecture and Design
  3351.  
  3352.  
  3353. NSAP Network Service Access Point
  3354.  
  3355.  
  3356. NTCB Network Trusted Computing Base
  3357.  
  3358.  
  3359. 0SI  Open System Interconnection
  3360.  
  3361.  
  3362. OT&E Operational Test and Evaluation
  3363.  
  3364.  
  3365. PDS  Protected Distribution System
  3366.  
  3367.  
  3368. PDU  Protocol Data Unit (a.k.a. packet, datagram)
  3369.  
  3370.  
  3371. POSIX Portable Operating System Interface for Computer Environments
  3372.  
  3373.  
  3374. RFP Request for Proposal
  3375.  
  3376.  
  3377. RI Risk Index
  3378.  
  3379.  
  3380. S SECRET
  3381.  
  3382.  
  3383. SBI Special Background Investigation
  3384.  
  3385.  
  3386. SCI Special Compartmented Information
  3387.  
  3388.  
  3389. SDNS Secure Data Network System
  3390.  
  3391.  
  3392. SH System High
  3393.  
  3394.  
  3395. SlOPESI Single Integrated Operational Plan-Extremely Sensitive
  3396. Information
  3397.  
  3398.  
  3399. ST&E Security Test and Evaluation
  3400.  
  3401.  
  3402. STS Single Trusted System
  3403.  
  3404.  
  3405. TCB Trusted Computing Base
  3406.  
  3407.  
  3408. TCP/IP Transmission Control Protocol/Internet Protocol
  3409.  
  3410.  
  3411. TCSEC Trusted Computer System Evaluation Criteria $
  3412.  
  3413.  
  3414. TEMPEST  (Not an acronym)
  3415.  
  3416.  
  3417. TNI  Trusted Network Interpretation
  3418.  
  3419.  
  3420. TNIEG TNI Environments Guideline
  3421.  
  3422.  
  3423. TS TOP SECRET
  3424.  
  3425.  
  3426. TSAP Transport Service Access Point
  3427.  
  3428.  
  3429. WAN  Wide Area Network
  3430.  
  3431.  
  3432. U.S. GOVERNMENT PRINTING OFFICE : 1990 O - 274-353 : QL 3
  3433.  
  3434.  
  3435.  
  3436. n